明白了——使用UnionAll怎麼樣?我相信這個代碼片段:你想要的是什麼呢
從pyspark。sql進口行數組=[行(值= 1)、行(value = 2),行(值= 3)]df = sqlContext.createDataFrame (sc.parallelize(數組)
array2 =[(值= 4)、行(值= 5)、行(值= 6)]df2 = sqlContext.createDataFrame (sc.parallelize (array2))
two_tables = df.unionAll (df2) two_tables.collect ()
> >[17]:[行(值= 1)、行(值= 2)、行(值= 3)、行(value = 4)、行(值= 5)、行(值= 6)]