取消
顯示的結果
而不是尋找
你的意思是:

如何使用pyspark覆蓋的JDBC沒有失去表的列上的限製嗎

Abeeya
新的貢獻者二世

你好,

我的表主鍵約束perticular列,Im constaint失去主鍵列每次覆蓋表,我能做些什麼來保護它呢?任何負責人,我們將不勝感激

嚐試以下

df.write。選項(“截斷”,“真正的”)。jdbc (url = DATABASE_URL、表= DATABASE_TABLE模式=“覆蓋”,屬性= DATABASE_PROPERTIES)

但它錯誤如下添加了一個新的列dataframe時並沒有在桌子上

AnalysisException:“new_col”列中沒有模式

1接受解決方案

接受的解決方案

Hubert_Dudek1
尊敬的貢獻者三世

@Abeeya。“截斷”模式,正確的保存表。然而,當你想添加一個新列(不匹配模式),它想把它。

在原帖子查看解決方案

2回答2

Hubert_Dudek1
尊敬的貢獻者三世

@Abeeya。“截斷”模式,正確的保存表。然而,當你想添加一個新列(不匹配模式),它想把它。

Kaniz
社區經理
社區經理

嗨@Abeeya。,你好嗎?做@Hubert杜德克的回答幫助你以任何方式?請讓我們知道。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map