取消
顯示的結果
而不是尋找
你的意思是:

ValueError:不夠值解包(2,1)

Ligaya
新的貢獻者二世

代碼:

Writer.jdbc_writer(“經濟”,經濟,參看= CONF.MSSQL.to_dict (), modified_by = JOB_ID['經濟'])

問題在於當我試著運行代碼,在指定的磚的筆記本,一個錯誤的“ValueError:沒有足夠的值將(2,1)”,

這是完整的錯誤信息:

ValueError:不夠值解包(預計2,1)- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - ValueError回溯(最近調用最後)<命令- 75945229 > <細胞係:1 > ()- - - - - > 1 Writer.jdbc_writer(“經濟”,經濟,參看= CONF.MSSQL.to_dict (), modified_by = JOB_ID['經濟'])2 3 - 75945229 > <命令jdbc_writer (table_name, df、、調試modified_by)配置= 15 conf.to_dict() 16 - - - > 17模式,表= table_name.split(“。”) 18模式=(1):1)如果模式[0]= =”(“其他模式19表=表(1):1)如果表[0]= =”(“其他表

當我點擊單元格,這是一行代碼:

類作家:@staticmethod def jdbc_writer (table_name: str, df: SparkDataFrame,參看:聯盟[dict SqlConnect], debug = False, modified_by = None,) - >沒有

我在尋找解決方案關於這個特定的問題,但似乎從來沒有找到它,和你的幫助我很受益。

3回複3

User16752242622
價值貢獻

你好,感謝你向我們伸出援手。

這看起來像一個通用的錯誤消息,請共享集群的運行時版本,您正在運行的筆記本嗎?你可以找到這個細節在集群配置。

甲型肝炎你檢查這篇文章?

https://stackoverflow.com/questions/52108914/python-how-to-fix-valueerror-not-enough-values-to-unpac..。

Ligaya
新的貢獻者二世

你好,我是運行時版本:

11.3 LTS(包括Apache火花3.3.0,Scala 2.12)

匿名
不適用

@Jillinie公園:

你看到的錯誤消息(“ValueError:沒有足夠的值將(2,1)”)發生當你試圖打開一個iterable對象變量太少。在你的案例中,錯誤發生在這行代碼:

模式、表= table_name.split (“。”)

在這裏,你想打開的結果()方法分割成兩個變量(模式和表),但是看起來split()方法隻是返回一個值,而不是兩個。要修複這個錯誤,您可以檢查的價值table_name之前調用split()方法,以確保它包含一個點(.)字符。如果沒有,你可以相應地處理錯誤(如引發一個異常或返回一個錯誤消息)。

這裏有一個例子如何修改jdbc_writer()方法來處理這個錯誤:

類作家:@staticmethod def jdbc_writer (table_name: str, df: SparkDataFrame,參看:聯盟[dict SqlConnect], debug = False, modified_by = None) - >沒有:如果”。不是table_name:提高ValueError (f”無效的表名“{table_name}”。表名應該在格式schema.table。”)如果isinstance(參看SqlConnect):配置= conf.to_dict()模式,表= table_name.split(' . ')模式=(1):1)如果模式[0]= =”(“其他模式表=表(1):1)如果表[0]= = "(“其他表#這裏是剩下的代碼

在這個的修改版本jdbc_writer()方法中,我們首先檢查如果table_name參數包含一個點(.)字符。如果沒有,我們提出一個ValueError適當的錯誤消息。否則,我們繼續其餘的方法。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map