pyspark.sql.functions.bucket¶
-
pyspark.sql.functions。
桶
( numBuckets:聯盟(pyspark.sql.column.Column,int],上校:ColumnOrName )→pyspark.sql.column.Column¶ -
分區轉換功能:轉換為任何類型的一個哈希分區輸入列。
筆記
這個函數隻能結合使用
partitionedBy ()
的方法DataFrameWriterV2。例子
> > >df。用writeTo(“catalog.db.table”)。partitionedBy(…桶(42,“t”)…)。createOrReplace()