取消
顯示的結果
而不是尋找
你的意思是:

PySpark列對象不調用使用“當否則”轉變

卡爾
新的貢獻者二世

第一個“當”功能結果的發布錯誤消息(見圖片)。print語句df_td_amm計數的作品。“df_td_amm”數據幀的printSchema證實,“年齡”是一個列。一個select語句也是成功的,所以想知道為什麼列不是“當”功能的訪問。我試著df_td_amm引用列。年齡和得到同樣的錯誤。

我試著在其他兩個小dataframes不使用熊貓和創建遇到同樣的錯誤。另外兩個多列dataframes,“當”功能工作正常引用的列。

熊貓作為pd導入導入pyspark。從pyspark.sql sql。函數從pyspark.sql進口*。類型導入*個月=列表(範圍(26))pdf = pd。DataFrame(月,列=[‘年齡’])df_td_amm = spark.createDataFrame (pdf) .cache()打印(df_td_amm.count ()) df_age_bucket = df_td_amm \ .withColumn時(“COMPOUNDING_FREQ \(坳(“年齡”)< = 3,“00-03月”)當(坳(“年齡”)< = 6,“04-06月”)當(坳(“年齡”)< = 9,“07-09月”),其他(“其他”))顯示(df_age_bucket)

錯誤

2回答2

werners1
尊敬的貢獻者三世

語法是當(....)。否則(…),而不是其他(…)

還有一些反斜杠失蹤。

嗨@Karl lach,

隻是一個友好的後續。維爾納的反應幫助嗎?如果是,請其標記為最好。否則,請讓我們知道如果你還需要幫助。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map