取消
顯示的結果
而不是尋找
你的意思是:

AutoOptimize,優化命令和真空命令:訂單、生產實現最佳實踐

美聯社
新的貢獻者三世

所以磚給我們偉大的工具包的形式優化和真空。但是,在操作方麵,我真的困惑的最佳實踐。

我們應該使優化寫道:“通過設置以下一個工作區水平?

spark.conf.set (“spark.databricks.delta.optimizeWrite.enabled”,“真正的”)#寫作速度

spark.conf.set (“spark.databricks.delta.autoCompact.enabled”,“真正的”)#壓縮文件

我們應該明確執行優化命令在數據庫表和一組頻率。同樣,如果我們使優化寫在空間層麵上,我們應該分別需要再次執行優化表級別。他們是相同的還是不同的?

決定在優化後解決,當我們應該運行真空。我們應該在相同的腳本運行優化和真空嗎?如果沒有,應該是理想的秩序

5回複5

美聯社
新的貢獻者三世

你好林賽,是的。@Werner Stinckens工作出色的蒸餾幾件事對我來說。謝謝你!

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map