我需要在dataframe創建新列的數據。
例子:
= sqlContext val測試。createDataFrame (Seq ((4 l,引發我j k), (5 l, l m n), (6 l, mapreduce“火花”),(7 l,“apache hadoop”), (11 l a b c d e火花),(12 l,“b d”), (13 l,“火花f g h”), (14 l, hadoop mapreduce)))。toDF (“id”、“文本”)val元組=列表((0.9 0 l), (4 l, 3.0), (0.12 6 l), (7 l, 0.7), (0.15 l, 11), (12 l, 6.1), (13 l, 1.8)) val抽樣:抽樣[(長,雙)]= sparkContext.parallelize ((tuples.toSeq))
這個元組ID和平均價值。現在我想添加新列命名平均和增加價值的行代表ID和genrate新Dataframe或抽樣。
@jack戀人你試過什麼?你有試過把()?
https://spark.apache.org/docs/latest/api/scala/index.html org.apache.spark.sql.Column
df.select (df(“可樂”).cast(“字符串”))
@Raela王
我已經使用
val新DF = dataframe.withColumn (“Timestamp_val current_timestamp ())
現有dataframe添加一個新列,但編譯拋出錯誤而運行紗,
. lang。IllegalArgumentException:要求失敗scala.Predef .require美元(Predef.scala: 221) org.apache.spark.sql.catalyst.analysis.UnresolvedStar.expand (unresolved.scala: 199)
我們怎麼還能添加一個列,我們不應該創建一個新的dataframe而添加的列?