取消
顯示的結果
而不是尋找
你的意思是:

無法讀取文件從S3

LearningDatabri
因素二世

我試圖從S3讀取一個文件,但麵對下麵的錯誤:

org.apache.spark。SparkException:工作階段失敗而終止:任務0階段53.0失敗了4次,最近的失敗:在舞台上失去了任務0.3 53.0 (TID 82 xx.xx.xx。xx,遺囑執行人0):com.databricks.sql.io。文件讀Exception: Error while reading file s3:////file.csv.

我使用:

spark.read。選項(分隔符=“|”)。選項(“標題”,假). csv (s3: / / < mybucket > / <路徑> / file.csv”)

1接受解決方案

接受的解決方案

Prabakar
尊敬的貢獻者三世
尊敬的貢獻者三世

我記得我以前見過這樣一個問題。請檢查S3生命周期管理。如果對象是遷移到另一個存儲類(主要是存檔)還有這個錯誤的可能性。

在原帖子查看解決方案

7回複7

Prabakar
尊敬的貢獻者三世
尊敬的貢獻者三世

你確認如果文件存在嗎?

這是發生在特定文件的所有文件嗎?

文件存在。一些文件不工作和一些工作。

Prabakar
尊敬的貢獻者三世
尊敬的貢獻者三世

我記得我以前見過這樣一個問題。請檢查S3生命周期管理。如果對象是遷移到另一個存儲類(主要是存檔)還有這個錯誤的可能性。

由於@Prabakar Ammeappin這個信息。我們有生命周期管理組。這種錯誤的文件沒有使用一段時間並存檔。我想知道為什麼文件被轉移到冰川在60天。必須重新審視生命周期規則和改變它。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map