我已經試著增加和減少內存,仍然沒有運氣。
如果你的工作不遵循這個:
根據https://docs.m.eheci.com/jobs.html jar-job-tips:“工作輸出,如日誌輸出發送到stdout, 20 mb的大小限製。如果總輸出大,運行將被取消,標記為失敗了。”
這是我的問題,“修複它”我剛剛將日誌級別設置為錯誤 val sc = SparkContext.getOrCreate(配置)sc.setLogLevel(“錯誤”) 這個方法適合我 我仍然得到這個錯誤消息但成功運行的工作我希望這有助於