pyspark.sql.DataFrameWriter.csv¶
-
DataFrameWriter。
csv
( 路徑:str,模式:可選(str]=沒有一個,壓縮:可選(str]=沒有一個,9月:可選(str]=沒有一個,報價:可選(str]=沒有一個,逃避:可選(str]=沒有一個,頭:聯盟(bool, str,沒有)=沒有一個,nullValue:可選(str]=沒有一個,escapeQuotes:聯盟(bool, str,沒有)=沒有一個,quoteAll:聯盟(bool, str,沒有)=沒有一個,dateFormat:可選(str]=沒有一個,timestampFormat:可選(str]=沒有一個,ignoreLeadingWhiteSpace:聯盟(bool, str,沒有)=沒有一個,ignoreTrailingWhiteSpace:聯盟(bool, str,沒有)=沒有一個,charToEscapeQuoteEscaping:可選(str]=沒有一個,編碼:可選(str]=沒有一個,emptyValue:可選(str]=沒有一個,lineSep:可選(str]=沒有一個 )→沒有¶ -
保存的內容
DataFrame
在CSV格式指定的路徑。- 參數
-
- 路徑 str
-
路徑在任何Hadoop文件係統的支持
- 模式 str,可選
-
指定保存操作的行為當數據已經存在。
附加
:添加內容DataFrame
現有的數據。覆蓋
:覆蓋現有的數據。忽略
如果數據已經存在:默默地忽略這個操作。-
-
錯誤
或errorifexists
(默認情況下):如果數據已經拋出一個異常 -
的存在。
-
- 其他參數
-
- 額外的選項
-
額外的選項,請參考數據源的選擇在你使用的版本。
例子
> > >df。寫。csv(操作係統。路徑。加入(tempfile。mkdtemp(),“數據”))