pyspark.sql.DataFrameWriter¶
-
類
pyspark.sql。
DataFrameWriter
( df:DataFrame ) ¶ -
接口用於編寫一個
DataFrame
外部存儲係統(如文件係統、鍵值存儲等)。使用DataFrame.write
來訪問。方法
bucketBy
(col numBuckets *峽路)桶的輸出給定的列。
csv
(路徑、模式、壓縮、9月報價,…))保存的內容
DataFrame
在CSV格式指定的路徑。格式
(源)指定底層輸出數據源。
insertInto
(表名(覆蓋))插入的內容
DataFrame
指定的表。jdbc
(url,表[模式中,屬性])保存的內容
DataFrame
通過JDBC外部數據庫表。json
(路徑、模式、壓縮、dateFormat…))保存的內容
DataFrame
在JSON格式(JSON文本格式或用JSON在指定的路徑)。模式
(saveMode)指定的行為當數據或表已經存在。
選項
(關鍵字,值)增加了一個輸出選擇基礎數據源。
選項
(* *選項)為底層數據源添加了輸出選項。
獸人
(路徑(模式、partitionBy壓縮))保存的內容
DataFrame
在獸人格式指定的路徑。拚花
(路徑(模式、partitionBy壓縮))保存的內容
DataFrame
在拚花格式指定的路徑。partitionBy
(*峽路)分區文件係統上的輸出通過給定的列。
保存
([路徑、格式、模式,partitionBy])保存的內容
DataFrame
一個數據源。saveAsTable
(名稱、格式、模式,partitionBy])保存的內容
DataFrame
指定的表。sortBy
(*關口坳)在每個桶排序輸出給定的列在文件係統。
文本
(道路、壓縮、lineSep])保存的內容DataFrame在文本文件在指定的路徑。