取消
顯示的結果
而不是尋找
你的意思是:

spark-submit錯誤“無法識別的選擇:——executor-memory 3 g”雖然——executor-memory可用選項。

現場
新的貢獻者三世

執行spark-submit工作通過磚cli使用以下配置工作。

{“job_id”: 123年,“creator_user_name”:“* * * * * *”、“run_as_user_name”:“* * * * * *”、“run_as_owner”:真的,“設置”:{“名稱”:“44 aa - 8447 c123aad310”,“email_notifications”: {},“max_concurrent_runs”: 1、“任務”:[{“task_key”:“4節aa - 8447 c90aad310”,“spark_submit_task”:{“參數”:[”——driver-memory 3 g”,“——executor-memory 3 g”,“——相依”,“spark.hadoop.mapreduce.fileoutputcommitter.algorithm。版本= 2”、“配置”、“火花。投機= false”、“配置”、“——spark.sql.parquet.fs.optimized.committer.optimization-enabled = true”、“配置”、“——spark.executorEnv.JAVA_HOME = / usr / lib / jvm / jdk-11.0.1”、“配置”、“spark.executor——。實例= 3”、“配置”、“spark.network.timeout =——600年代”、“設計”、“spark.yarn.appMasterEnv.JAVA_HOME = / usr / lib / jvm / jdk-11.0.1”、“配置”、“spark.driver——。maxResultSize = 1 g”、“配置”、“spark.yarn。maxAppAttempts = 1”、“——瓶”、“/ home / hadoop / somejar.jar、/ home / hadoop / somejar2。jar”、“——類”、“we.databricks.some.path。ER”、“/ home / hadoop / some-jar-SNAPSHOT。jar”、“* * * * * *的new_cluster“]}: {“spark_version”:“10.4.x-scala2.12”、“spark_conf”: {“spark.databricks.delta.preview.enabled”:“真正的”,“spark.hadoop.fs.azure.account。關鍵”:“* * * * * *“}”node_type_id”:“Standard_DS3_v2”、“custom_tags ":{“應用程序”:“* * * * * *”、“名稱”:“* * * * * *”,“環境”:“* * * * * *”、“老板”:“* * * * * *”、“CURRENT_VERSION”:“1.20.0-ab6303d9d”},“cluster_log_conf ": {" dbfs ":{“目的地”:“* * * * * *”}},“spark_env_vars ":{“環境”:“* * * * * *”、“AZURE_ACCOUNT_KEY”:“* * * * * *”、“AZURE_ACCOUNT_NAME”:“* * * * * *”、“PYSPARK_PYTHON”:“磚/ python3 / bin / python3”、“JNAME”:“zulu11-ca-amd64”、“AZURE_CONTAINER_NAME”:“* * * * * *”},“enable_elastic_disk”:真的,”init_scripts”: [{“abfss”:{“目的地”:“* * * * * *”}}],“num_workers”: 3},“timeout_seconds”: 0}],“格式”:“MULTI_TASK created_time“},: 1662096418457}

但這給了錯誤引發提交。錯誤:無法識別的選擇:——executor-memory 3 g

5回複5

Debayan
尊敬的貢獻者三世
尊敬的貢獻者三世

嗨,謝謝你接觸到community.m.eheci.com。

你是火花在本地模式下運行嗎?

請檢查https://stackoverflow.com/questions/26562033/how-to-set-apache-spark-executor-memory,請讓我們知道如果這可以幫助,也請讓我們知道如果您有進一步的疑問在相同。

現場
新的貢獻者三世

不確定如果火花在本地模式下運行。但使用替代屬性

spark.executor.memory

並通過配置,現在,它的工作原理

嗨@Muhammad現場賈米爾,

我們不建議改變默認設置。我想更好地理解為什麼你想改變默認值。你想定義執行程序內存,因為你有一個錯誤在過去?或者是什麼原因?

現場
新的貢獻者三世

我們正從aws emr azure磚。emr我們用來改變遺囑執行人記憶中對工作的需求。我們不會要求在磚嗎?

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map