取消
顯示的結果
而不是尋找
你的意思是:

從Azure磚dataframe數據加載到宇宙db容器

RamaSantosh
新的貢獻者二世

我試圖從Azure磚dataframe加載數據到宇宙db容器使用下麵的命令

cfg = {

“spark.cosmos。accountEndpoint”: cosmosEndpoint,

“spark.cosmos。accountKey”: cosmosMasterKey,

“spark.cosmos。數據庫”:cosmosDatabaseName,

“spark.cosmos。容器”:cosmosContainerName,

}

df.write.format (cosmos.oltp) .options (* * cfg) .mode(“追加”).save ()

我查詢是宇宙如果目標容器已經與源數據匹配一個特定id會試圖覆蓋id細節還是會更新現有的id細節添加新項目或將隻添加/追加新的id和聯係現有的嗎?

插入是什麼類型和我們可以使用append模式?

背景:我試圖加載為零售客戶交易細節通過手動運行附加等不同的時間間隔從2012年到2017年,然後2017到2022。同樣的客戶會使交易的時間所以這append模式將如何處理?

2回答2

Debayan
尊敬的貢獻者三世
尊敬的貢獻者三世

嗨,可以通過使用補丁——部分文檔更新https://learn.microsoft.com/en-us/azure/cosmos-db/sql/create-sql-api-spark?tabs=python partial-docum……。磚的筆記本支持python,你能接觸到Azure支持宇宙(DB)團隊如果他們支持附加通過python(可以從任何python編輯器(磚筆記本,Azure磚後實現與宇宙DB端點))?

匿名
不適用

嘿@Rama桑托什Ravada

希望一切都好!隻是想檢查如果你能解決你的問題,你會很高興分享解決方案或答案標記為最佳?其他的請讓我們知道如果你需要更多的幫助。

我們很想聽到你的聲音。

謝謝!

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map