取消
顯示的結果
而不是尋找
你的意思是:

如何添加新列值在dataframe代表惟一的id嗎

supriya
新的貢獻者二世

我需要在dataframe創建新列的數據。

例子:

= sqlContext val測試。createDataFrame (Seq ((4 l,引發我j k), (5 l, l m n), (6 l, mapreduce“火花”),(7 l,“apache hadoop”), (11 l a b c d e火花),(12 l,“b d”), (13 l,“火花f g h”), (14 l, hadoop mapreduce)))。toDF (“id”、“文本”)

val元組=列表((0.9 0 l), (4 l, 3.0), (0.12 6 l), (7 l, 0.7), (0.15 l, 11), (12 l, 6.1), (13 l, 1.8)) val抽樣:抽樣[(長,雙)]= sparkContext.parallelize ((tuples.toSeq))

這個元組ID和平均價值。現在我想添加新列命名平均和增加價值的行代表ID和genrate新Dataframe或抽樣。

12個回複12

raela
新的貢獻者三世

@jack戀人你試過什麼?你有試過把()?

https://spark.apache.org/docs/latest/api/scala/index.html org.apache.spark.sql.Column

df.select (df(“可樂”).cast(“字符串”))

jackAKAkarthik
新的貢獻者三世

@Raela王

是的我發布這個問題之後我用這個,忘記更新了。

jackAKAkarthik
新的貢獻者三世

@Raela王

我已經使用

val新DF = dataframe.withColumn (“Timestamp_val current_timestamp ())

現有dataframe添加一個新列,但編譯拋出錯誤而運行紗,

. lang。IllegalArgumentException:要求失敗scala.Predef .require美元(Predef.scala: 221) org.apache.spark.sql.catalyst.analysis.UnresolvedStar.expand (unresolved.scala: 199)

我們怎麼還能添加一個列,我們不應該創建一個新的dataframe而添加的列?

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map