07-20-2022下午09:30
嘿,所有的,
我們試圖分析23 GB JSON文件中的數據。我們使用的基本啟動集群——一個節點,2 cpu x 8 gb。
我們可以讀取JSON文件到一個火花dataframe和打印模式但如果我們試著做任何操作,不會導致收集(,過濾器),司機不能與“意外引發司機已經停止並重新啟動。你的筆記本將會自動重新接好。”
JSON文件多行,這聽起來像是整個必須讀入內存集群節點,所以我們需要一個更大的節點。集群你們推薦什麼尺寸的?我們在看一群3 8 x 32 s -你認為會工作嗎?
周傑倫
07-21-202206:45我
你好艾倫@Jay你可以參考集群規模醫生。
07-21-2022中午12點
謝謝Prabakar !我們還剩下12天審判——我們必須支付AWS vm但是磚片與新自由在審判期間,大集群?
從未顯出
加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。
點擊在這裏注冊今天,加入!
參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。