12-02-201526我
dbfs使用sparkcsv寫數據,我打算搬到我的筆記本電腦通過標準s3複製命令。
默認為火花csv是將輸出寫入分區。我可以迫使其單個分區,但是真的想知道如果有一個通用的方法。
在hadoop文件係統,我簡單地運行之類的
hadoop fs -getmerge / user / hadoop / dir1 /。/ myoutput.txt
從內部等效磚平台嗎?Beplay体育安卓版本
07-27-201701:11點
我很生氣,我的代碼的格式就消失了,當我提交編輯。
07-03-201904:09我
您需要設置遞歸複製命令設置。馬修加斯科因詳細解釋他的一個帖子:
當試圖將一個文件夾從一個位置複製到另一個磚你可能的寫我的論文任務和遇到以下消息
01-21-202003:50我
沒有bash磚內,這將是高度讚賞,如果一個選項(例如通過dbfsutils)存在。
從未顯出
加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。
點擊在這裏注冊今天,加入!
參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。