pyspark.sql.DataFrameWriter.parquet¶
-
DataFrameWriter。
拚花
( 路徑:str,模式:可選(str]=沒有一個,partitionBy:聯盟(str,列表(str),沒有一個)=沒有一個,壓縮:可選(str]=沒有一個 )→沒有¶ -
保存的內容
DataFrame
在拚花格式指定的路徑。- 參數
-
- 路徑 str
-
路徑在任何Hadoop文件係統的支持
- 模式 str,可選
-
指定保存操作的行為當數據已經存在。
附加
:添加內容DataFrame
現有的數據。覆蓋
:覆蓋現有的數據。忽略
如果數據已經存在:默默地忽略這個操作。錯誤
或errorifexists
(默認情況下):拋出一個異常如果數據已經存在。
- partitionBy str或列表,可選的
-
分區列的名字
- 其他參數
-
- 額外的選項
-
額外的選項,請參考數據源的選擇在你使用的版本。
例子
> > >df。寫。拚花(操作係統。路徑。加入(tempfile。mkdtemp(),“數據”))