取消
顯示的結果
而不是尋找
你的意思是:

磚的筆記本“java:造成失敗。FileNotFoundException:操作失敗:指定的路徑不存在。”404頭,https://adls.dfs.core.windows.net/raw/file.csv?upn=false&action=getStatus&timeout=90".

rpshgupta
新的貢獻者三世

org.apache.spark。SparkException:工作階段失敗而終止:任務0階段458.0失敗了4次,最近的失敗:在舞台上失去了任務0.3 458.0 (TID 2247)(172.18.102.75執行人1):com.databricks.sql.io。FileReadException:當abfss閱讀文件時發生錯誤:(電子郵件保護)/ file.csv。它是可能的底層文件已經更新。您可以顯式地火花的緩存失效運行“REFRESH TABLE表”命令的SQL或重新創建數據集/ DataFrame參與。如果δ緩存過期或底層文件已被移除,你可以手動三角洲緩存失效重新啟動集群。

在org.apache.spark.sql.execution.datasources.FileScanRDD立刻1美元立刻2.美元美元logfilenameandthrow (FileScanRDD.scala: 417)

在org.apache.spark.sql.execution.datasources.FileScanRDD立刻1美元立刻2.美元美元getnext (FileScanRDD.scala: 369)

org.apache.spark.util.NextIterator.hasNext (NextIterator.scala: 73)

在另一次1.美元美元org.apache.spark.sql.execution.datasources.FileScanRDD nextiterator (FileScanRDD.scala: 509)

在org.apache.spark.sql.execution.datasources.FileScanRDD立刻1美元。美元anonfun hasNext 1美元(FileScanRDD.scala: 322)

在scala.runtime.java8.JFunction0 mcZ sp.apply美元(JFunction0 mcZ sp.java美元:23)

在美元com.databricks.spark.util.ExecutorFrameProfiler知根知底(ExecutorFrameProfiler.scala: 110)

在另一次1.美元美元org.apache.spark.sql.execution.datasources.FileScanRDD hasnext (FileScanRDD.scala: 317)

在另一次10.美元美元scala.collection.Iterator hasnext (Iterator.scala: 460)

在另一次12.美元美元scala.collection.Iterator hasnext (Iterator.scala: 513)

在另一次11.美元美元scala.collection.Iterator hasnext (Iterator.scala: 491)

在另一次10.美元美元scala.collection.Iterator hasnext (Iterator.scala: 460)

在另一次10.美元美元scala.collection.Iterator hasnext (Iterator.scala: 460)

org.apache.spark.sql.execution.collect.UnsafeRowBatchUtils .encodeUnsafeRows美元(UnsafeRowBatchUtils.scala: 80)

在org.apache.spark.sql.execution.collect.Collector。anonfun processFunc美元1美元(Collector.scala: 155)

在org.apache.spark.scheduler.ResultTask。anonfun runTask美元3美元(ResultTask.scala: 75)

在美元com.databricks.spark.util.ExecutorFrameProfiler知根知底(ExecutorFrameProfiler.scala: 110)

在org.apache.spark.scheduler.ResultTask。anonfun runTask美元1美元(ResultTask.scala: 75)

在美元com.databricks.spark.util.ExecutorFrameProfiler知根知底(ExecutorFrameProfiler.scala: 110)

org.apache.spark.scheduler.ResultTask.runTask (ResultTask.scala: 55)

org.apache.spark.scheduler.Task.doRunTask (Task.scala: 156)

在org.apache.spark.scheduler.Task。anonfun運行$ 1美元(Task.scala: 125)

在美元com.databricks.spark.util.ExecutorFrameProfiler知根知底(ExecutorFrameProfiler.scala: 110)

org.apache.spark.scheduler.Task.run (Task.scala: 95)

在org.apache.spark.executor.Executor TaskRunner。美元anonfun運行13美元(Executor.scala: 825)

org.apache.spark.util.Utils .tryWithSafeFinally美元(Utils.scala: 1658)

在org.apache.spark.executor.Executor TaskRunner。美元anonfun運行4美元(Executor.scala: 828)

在scala.runtime.java8.JFunction0專門sp.apply美元(美元JFunction0 mcV $ sp.java: 23)

在美元com.databricks.spark.util.ExecutorFrameProfiler知根知底(ExecutorFrameProfiler.scala: 110)

org.apache.spark.executor.Executor TaskRunner.run美元(Executor.scala: 683)

java.util.concurrent.ThreadPoolExecutor.runWorker (ThreadPoolExecutor.java: 1149)

java.util.concurrent.ThreadPoolExecutor Worker.run美元(ThreadPoolExecutor.java: 624)

java.lang.Thread.run (Thread.java: 748)

引起的:java。FileNotFoundException:操作失敗:指定的路徑不存在。”404頭,https://adls.dfs.core.windows.net/raw/file.csv?upn=false&action=getStatus&timeout=90

shaded.databricks.azurebfs.org.apache.hadoop.fs.azurebfs.AzureBlobFileSystem.checkException (AzureBlobFileSystem.java: 1344)

shaded.databricks.azurebfs.org.apache.hadoop.fs.azurebfs.AzureBlobFileSystem.open (AzureBlobFileSystem.java: 266)

com.databricks.spark.metrics.FileSystemWithMetrics.open (FileSystemWithMetrics.scala: 336)

在org.apache.hadoop.fs.FileSystem.lambda openFileWithOptions 0美元(FileSystem.java: 4633)

org.apache.hadoop.util.LambdaUtils.eval (LambdaUtils.java: 52)

org.apache.hadoop.fs.FileSystem.openFileWithOptions (FileSystem.java: 4631)

org.apache.hadoop.fs.FileSystem FSDataInputStreamBuilder.build美元(FileSystem.java: 4768)

org.apache.hadoop.mapreduce.lib.input.LineRecordReader.initialize (LineRecordReader.java: 92)

在org.apache.spark.sql.execution.datasources.HadoopFileLinesReader。< init > (HadoopFileLinesReader.scala: 65)

org.apache.spark.sql.execution.datasources.csv.TextInputCSVDataSource.readFile (CSVDataSource.scala: 108)

在org.apache.spark.sql.execution.datasources.csv.CSVFileFormat。anonfun buildReader美元2美元(CSVFileFormat.scala: 169)

org.apache.spark.sql.execution.datasources.FileFormat立刻1.美元美元申請(FileFormat.scala: 156)

org.apache.spark.sql.execution.datasources.FileFormat立刻1.美元美元申請(FileFormat.scala: 143)

在org.apache.spark.sql.execution.datasources.FileScanRDD立刻1美元立刻2.美元美元getnext (FileScanRDD.scala: 353)

…31日更

8回答說8

試著拚花表轉換為三角洲表,這個錯誤將會得到解決。

我也麵臨著同樣的問題。我訪問創建視圖的頂部加入4表鑲花的格式。所以當我把數據從視圖使用流媒體的工作,這份工作失敗。

盡管基表增量附加在日常基礎上,每天的一部分文件變更名稱的鑲花的文件格式嗎?

圖像

圖像

Vidula
尊敬的貢獻者

嗨@Rupesh古普塔

希望你是好。隻是想看看你是否能夠找到一個回答你的問題,你想要一個答案標記為最好?它對其他成員也將很有幫助。

幹杯!

rpshgupta
新的貢獻者三世

我找不到任何最好的解決方案。我見過這個問題很多次了,它固定後重新運行。我不覺得重新運行是最好的解決方案。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map