取消
顯示的結果
而不是尋找
你的意思是:

從磚到sql server表填充數據

Mr__D
新的貢獻者二世

你好所有的,

任何一個能建議最好的方法是什麼填充從三角洲(插入)數據表到sql server表中。

我們將我們的數據在磚和存儲的數據轉換為三角洲表。但報告的目的我們需要在Sql server表填充數據。

最好的辦法是做什麼數據從三角洲表插入Sql server ?

並引發突觸連接器將是最好的選擇嗎?

謝謝,

迪帕克

1回複1

匿名
不適用

@Deepak Bhatt:

是的,使用引發突觸連接器可以是一個不錯的選擇從三角洲表插入數據到SQL Server表中。引發突觸連接器允許您從Azure突觸讀寫數據分析,原名SQL數據倉庫,它同時支持讀寫操作。

插入數據,你可以首先從三角洲表讀取數據使用火花的DataFrame API,然後寫表的SQL Server數據使用突觸連接器的編寫方法。執行插入,您可以在SQL Server中使用MERGE語句。

這裏有一些示例代碼演示了如何使用引發突觸連接器從三角洲插入數據表到一個SQL Server表:

#從三角洲讀取數據表delta_df = spark.read.format(“δ”).load(路徑“/ / /δ/表”)#寫入數據表delta_df SQL Server。寫\ .format (com.microsoft.sqlserver.jdbc.spark) \ .mode(“覆蓋”)\ .option (“url”,“jdbc::狀態"置疑" / / < your_server >: < your_port >;數據庫= < your_database > ") \ .option(“數據表”,“< your_table >”) \ .option(“用戶”,“< your_username >”) \ .option(“密碼”,“< your_password >”) \ .option (“tableLock”,“真正的”)\ .option (“bulkCopyBatchSize”、“100000”) \ .option (“bulkCopyTableLock”,“真正的”)\ .option (“bulkCopyTimeout”、“600”) \ .option (“batchsize”、“100000”) \ .option (“reliabilityLevel”、“BEST_EFFORT”) \ .option (“tempDir”、“/ mnt / temp”) \ .option (“checkpointLocation”、“/ mnt /檢查站”)\ .option (“mergeSchema”,“真正的”)\ .option (“createTableColumnTypes”、“< column_types >”) \ .option (“spark.connection。模式”、“磚”)\ .option (“spark.databricks.delta.preview.enabled”,“真正的”)\ .option (“synapseStorageAccountUrl”、“< your_storage_account_url >”) \ .option (“synapseStorageAccountAccessKey”、“< your_storage_account_access_key >”) \ .option (“synapseLinkedServiceName”、“< your_linked_service_name >”) \ .option (“synapseWorkspaceName”、“< your_workspace_name >”) \ .option(“插入”,“真正的”)\ .option (“primaryKey”、“< your_primary_key >”) \ .save ()

確保將占位符替換為自己的SQL Server連接和表值的細節。同時,將插入選項設置為true,並且指定主鍵列(s)使用primaryKey選項執行插入。

請注意,您可能需要調整其他選項根據您的特定需求和環境。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map