你好朋友,
我們有一個應用程序,它從各種表提取dat Azure磚,我們提取的postgres表(postgres安裝在Azure vm)。提取我們應用變換後的數據集在postgres表的幫助下火花在木星的筆記本和編寫的程序加載數據Neo4j圖形數據庫(Neo4j安裝在另一個Azure VM)。現在我們正在做提取通過SQL查詢和轉換Postgres我們利用Python(火花)計劃。有很多的表(超過100),有依賴性,不可能所有手動運行。因此,我們正在尋找一個協調器和調度器可以創建我們的工作執行工作流和安排他們運行在一個特定的時間框架。你能推薦一個嗎?提前感謝。我將該應用程序的架構,在這篇文章。
嗨@Badal熊貓,
隻是一個友好的後續。你還尋求幫助嗎?
這個錯誤來自高並發集群:
org.apache.spark。SparkException: 30248年910年取消了因為工作任務階段1422年超過了最大允許輸入輸出記錄比(1到24919,最大允許1到10000);這個限製可以修改配置參數spark.databricks.queryWatchdog.outputRatioThreshold
解決方案:https://docs.microsoft.com/en-us/azure/databricks/spark/latest/spark-sql/query-watchdog
嗨@Vartika將近城門,
確定我可以分享細節關於協調器/調度器,但是最近有改變我們的設計架構與源係統讓我簡要解釋
我希望我已經回答了你的問題。請讓我知道如果有什麼我可以澄清。