我拯救了一個三角洲表我可以閱讀使用“spark.table (table_name)”。然而,當我進入“數據”麵板在磚時,我得到一個錯誤的選擇。
獲取表時發生一個錯誤:< table_name >
com.databricks.backend.common.rpc.DatabricksExceptions SQLExecutionException美元:org.apache.spark.sql。AnalysisException:檢測到不兼容的格式。
一個事務日誌數據磚三角洲發現“<路徑> / _delta_log”,
但你正試圖從“<路徑>”使用格式讀取(“鋪”)。你必須使用
的格式(“δ”)當閱讀和寫作δ表。
禁用此檢查,設置spark.databricks.delta.formatCheck.enabled = false
我不知道。我拯救了與自動裝卸機如下表:
我儲蓄結構流到一個表使用:
' ' '
.writeStream
.format(“δ”)# < - - - - - - - - - - - -
checkpoint_path .option (“checkpointLocation”)
output_path .option(“路徑”)
.trigger (availableNow = True)
.toTable (table_name、格式=“δ”))
' ' '
然而,產生表似乎不是一個delta one Redash我不能閱讀它,還是在磚數據預覽功能。而且如果我運行delta.DeltaTable。isDeltaTable(火花,TABLE_NAME)返回False。
你寫任何數據嗎?你micro-batch處理任何數據?你可以檢查“% sql描述擴展< delta_table_name >”在輸出你會發現的路徑數據所在位置。然後你可以嚐試列表中的數據路徑。你需要有一個_delta_log文件