你好,
我們正在經曆一個錯誤有一個結構化的流媒體工作,基本上檢查站被損壞,我們不能繼續執行。
我檢查錯誤和當它觸發一個autocompact,然後失敗和_spark_metadata文件夾的路徑我寫沒有文件和檢查點的損壞。
這個工作每天運行一次並存儲檢查點S3 bucket。我設法解決這一次通過添加一個* * * * *文件_spark_metadata asociated檢查點提交失敗,但3天後我又發現同樣的錯誤了。
信息FileStreamSinkLog:緊湊的時間間隔設置為10 [defaultCompactInterval: 10]信息S3AFileSystem: V3: FS_OP_CREATE桶(bucketname)文件(s3: / / bucketname / processname / 2022/12/1/5 / _spark_metadata / 19.緊湊]創建輸出流;許可:{蒙麵:rw-r——r,揭露:rw-rw-rw -},覆蓋:假的,bufferSize: 65536信息S3AFileSystem: V3: spark.databricks.io.parquet.verifyChecksumOnWrite。禁用啟用信息S3ABlockOutputStream: V3: FS_OP_CREATE桶(bucketname)文件[bucketname / processname / 2022/12/1/5 / _spark_metadata / 19.緊湊]取消流22/12/01 05:12:34信息S3ABlockOutputStream: V3: FS_OP_CREATE桶(bucketname)文件(processname / 2022/12/1/5 / _spark_metadata / 19.緊湊)成功取消流信息AWSCheckpointFileManager:取消寫入路徑錯誤FileFormatWriter:流產工作58 d6f7d7 - 8 ef4 - 4 - c8c ccf5fc477d9——9546 - 1。. io .FileNotFoundException:找不到批s3: / / bucketname / processname / 2022/12/1/5 / _spark_metadata / 9.緊湊
我不知道的事情:
相關文章: