解決了!org.apache.spark。SparkException:工作階段失敗而終止:序列化結果的總規模69 (4.0 GB)大於spark.driver任務。maxResultSize (4.0 GB)
設置spark.conf.set (“spark.driver。maxResultSize”、“20 g”)得到spark.conf.get (spark.driver.maxResultSize) / / 20克預計在筆記本上,我沒有做集群級別設置仍然得到4 g而執行火花工作,為什麼?因為的…