所以磚給我們偉大的工具包的形式優化和真空。但是,在操作方麵,我真的困惑的最佳實踐。
我們應該使優化寫道:“通過設置以下一個工作區水平?
spark.conf.set (“spark.databricks.delta.optimizeWrite.enabled”,“真正的”)#寫作速度
spark.conf.set (“spark.databricks.delta.autoCompact.enabled”,“真正的”)#壓縮文件
或
我們應該明確執行優化命令在數據庫表和一組頻率。同樣,如果我們使優化寫在空間層麵上,我們應該分別需要再次執行優化表級別。他們是相同的還是不同的?
決定在優化後解決,當我們應該運行真空。我們應該在相同的腳本運行優化和真空嗎?如果沒有,應該是理想的秩序