取消
顯示的結果
而不是尋找
你的意思是:

引發異常當閱讀鋪文件時發生錯誤

虛假的
新的貢獻者三世

當我試著拚花文件讀取從Azure datalake容器從磚,我得到引發異常。下麵是我查詢

進口pyarrow。鑲木地板,pq

從pyspark.sql。功能導入*

從datetime進口datetime

data = spark.read.parquet (f“/ mnt /數據/國家/羊毛/ countrydata.parquet”)

org.apache.spark。SparkException:工作階段失敗而終止:任務0階段14.0失敗了4次,最近的失敗:在舞台上失去了任務0.3 14.0 (TID 35)(10.135.39.71執行人0):org.apache.spark。在awaitResult SparkException:異常:

這是什麼意思?我需要做什麼?

2回答2

Debayan
尊敬的貢獻者三世
尊敬的貢獻者三世

嗨@shamly pt,請你把完整的錯誤堆棧嗎?

DavideAnghileri
貢獻者

嗨@shamly pt,需要更多的信息來解決這個問題。然而常見的問題是:

  • 存儲不是山
  • 該文件不存在於掛載的存儲

也沒有必要使用f-string如果沒有花括號表達式的字符串,因此您可以刪除的f f“/ mnt /數據/國家/羊毛/ countrydata.parquet””

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map