取消
顯示的結果
而不是尋找
你的意思是:

沒有重新啟動集群如何清除所有緩存?

shan_chandra
尊敬的貢獻者二世
尊敬的貢獻者二世
1接受解決方案

接受的解決方案

shan_chandra
尊敬的貢獻者二世
尊敬的貢獻者二世
% scala def clearAllCaching(表名:選項[String] = None):單位={表名。= > com.databricks.sql.transaction.tahoe.DeltaValidation地圖{路徑。在validateCache(spark, path) } spark.conf.set("com.databricks.sql.io.caching.bucketedRead.enabled", "false") spark.conf.set("spark.databricks.delta.smallTable.cache.enabled", "false") spark.conf.set("spark.databricks.delta.stats.localCache.maxNumFiles", "1") spark.conf.set("spark.databricks.delta.fastQueryPath.dataskipping.checkpointCache.enabled", "false") spark.conf.set("spark.databricks.io.cache.enabled", "false") com.databricks.sql.transaction.tahoe.DeltaLog.clearCache() spark.sql("CLEAR CACHE") sqlContext.clearCache() }

請查收上麵的自定義方法來清除所有緩存集群中而不需要重新啟動。這將清除緩存通過調用下麵的方法。

% scala clearAllCaching ()

緩存可以驗證集群中的火花UI - >存儲選項卡。

在原帖子查看解決方案

2回答2

shan_chandra
尊敬的貢獻者二世
尊敬的貢獻者二世
% scala def clearAllCaching(表名:選項[String] = None):單位={表名。= > com.databricks.sql.transaction.tahoe.DeltaValidation地圖{路徑。在validateCache(spark, path) } spark.conf.set("com.databricks.sql.io.caching.bucketedRead.enabled", "false") spark.conf.set("spark.databricks.delta.smallTable.cache.enabled", "false") spark.conf.set("spark.databricks.delta.stats.localCache.maxNumFiles", "1") spark.conf.set("spark.databricks.delta.fastQueryPath.dataskipping.checkpointCache.enabled", "false") spark.conf.set("spark.databricks.io.cache.enabled", "false") com.databricks.sql.transaction.tahoe.DeltaLog.clearCache() spark.sql("CLEAR CACHE") sqlContext.clearCache() }

請查收上麵的自定義方法來清除所有緩存集群中而不需要重新啟動。這將清除緩存通過調用下麵的方法。

% scala clearAllCaching ()

緩存可以驗證集群中的火花UI - >存儲選項卡。

Hubert_Dudek1
尊敬的貢獻者三世

太好了。您可以添加spark.catalog.clearCache ()。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map