取消
顯示的結果
而不是尋找
你的意思是:

我怎麼上傳文件流對象使用pyspark S3 bucket ?

rammy
貢獻者三世

我可以使用pyspark能夠保存數據到S3但不知道如何將一個文件流對象保存到使用pyspark S3 bucket。python的幫助下我可以實現這一但當統一目錄上啟用Databrciks總是最終拒絕訪問異常。

我添加了一個截圖,示例代碼來檢查相同

% python導入請求導入json進口io進口boto3 s3_client = boto3.client (s3) r = s3_client.put_object(= "身體反應。內容”,桶= " bucketName”,關鍵= "文件名")

我的問題是

為什麼能夠將數據保存到一個Amazon S3 bucket和Python使用Pyspak但不是嗎?

保存數據時使用python pyspark為什麼不工作?如果有一個原因我們如何使用pyspark保存文件?

5回複5

rammy
貢獻者三世

我知道有一個變化需要Unity-catalog使它使用Python和有推薦使用pyspark向S3存儲文件。

我沒有看到太多的信息存儲文件流對象S3存儲桶中。誰能分享一個例子。

順便將pyspark支持。docx格式保存嗎?

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map