取消
顯示的結果
而不是尋找
你的意思是:

分析23 GB JSON文件

jayallenmn
新的貢獻者三世

嘿,所有的,

我們試圖分析23 GB JSON文件中的數據。我們使用的基本啟動集群——一個節點,2 cpu x 8 gb。

我們可以讀取JSON文件到一個火花dataframe和打印模式但如果我們試著做任何操作,不會導致收集(,過濾器),司機不能與“意外引發司機已經停止並重新啟動。你的筆記本將會自動重新接好。”

JSON文件多行,這聽起來像是整個必須讀入內存集群節點,所以我們需要一個更大的節點。集群你們推薦什麼尺寸的?我們在看一群3 8 x 32 s -你認為會工作嗎?

周傑倫

2回答2

Prabakar
尊敬的貢獻者三世
尊敬的貢獻者三世

你好艾倫@Jay你可以參考集群規模醫生

jayallenmn
新的貢獻者三世

謝謝Prabakar !我們還剩下12天審判——我們必須支付AWS vm但是磚片與新自由在審判期間,大集群?

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map