取消
顯示的結果
而不是尋找
你的意思是:

我們可以使用spark-xml三角洲住表嗎?

JeromeB974
新的貢獻者二世

有辦法用δspark-xml生活表(Azure磚)?

我這樣的嚐試沒有成功

df17創建生活表

使用com.databricks.spark.xml

從cloud_files SELECT * (“/ mnt / dev /銅/ xml / s4327994”、“xml”)

我們可以與dlt加載這個圖書館嗎?

8回答說8

Hubert_Dudek1
尊敬的貢獻者三世

@Jerome巴斯蒂德、自定義實現更簡單的在python中。你可以閱讀。隻是DataFrame返回。

自動裝卸機不支持XML,所以你需要加載XML的傳統方法。

@dlt。視圖def dlt_dev_bronze():返回spark.read。選項(“rowTag”、“標記”). xml (“dbfs: / mnt / dev /銅/ xml / s4327994”)

Kaniz
社區經理
社區經理

嗨@Jerome巴斯蒂德,隻是一個友好的後續。你還需要幫助,還是@Hubert杜德克(客戶)的反應幫助你找到解決方案了嗎?請讓我們知道。

JeromeB974
新的貢獻者二世

不,我沒有成功,無論是在sql還是在python中工作。

它似乎需要spark-xml我沒有找到一個方法來使用它與達美住表。

我將嚐試自動裝卸機在二進製。

的問候。

嗨@Jerome巴斯蒂德,隻是檢查,你試過在二進製自動裝卸機嗎?

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map