取消
顯示的結果
而不是尋找
你的意思是:

致命錯誤:Python的內核是反應遲鈍

Orianh
重視貢獻二世

嘿,夥計們,

我用petastorm培訓款,首先我將火花df make_spark_convertor物化數據集,然後打開一個讀者。

雖然我隻在開始訓練子集的數據沒問題,但每件事當我用所有數據集與Python 500批我的筆記本崩潰後的內核是反應遲鈍,你們知道這發生了什麼嗎?

我看到有點類似的問題,我已把線程轉儲,但沒有理解它。

除了我得到很多未來的警告petastorm pyarrow,知道如何避免所有這些警告嗎?

25日回複25

Orianh
重視貢獻二世

嘿@Vidula卡納

我找到了一個解決方案,我創建了一個運行的工作筆記本。(集群規範而不是與現有集群——成本便宜)

我認為當一個筆記本連接到現有集群很多狀態保存填補RAM或有一些機製開始工作分配內存,可能會和任何其他的筆記本,

當我運行的筆記本工作,所使用的內存減少了一半沒有任何錯誤和運行完成。

但可以肯定的是,這個錯誤是由於內存:鏈接在這裏

@Vidula卡納

@orian印地語

今天,我試圖轉置一個大數據集(行:252 x17列:1000)。999列結構數值數據和浮動1列是一個DateTime數據類型。

我部署Standard_E4ds_v4在Azure磚。換一下,應該足夠大數據。

這是代碼:

df_sp500_elements.pandas_api () .set_index (stock_dateTime) .T.reset_index () .rename(列={“指數”:“stock_dateTime”}) .to_spark(),告訴()

然而,運行14.45小時後,仍有一個“致命錯誤:Python的內核是反應遲鈍的”。

這是Ganglia:集群的報告在換位::

Ganglia__集群報告

這是事件日誌”:

GC

我認為“致命錯誤:Python的內核是反應遲鈍的不是內存不足造成的。

這是我全部的致命錯誤:Python的內核是反應遲鈍。的錯誤信息:

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

Python程序退出一個未知的退出代碼。

過程的最後10 KB的stderr和stdout下麵可以找到。看到司機日誌完全日誌。

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

最後上stderr消息:

結婚2022年11月9日12:46:54連接從PID 933火花

結婚2022年11月9日12:46:54網關初始化在端口34615上

結婚2022年11月9日12:46:55連接到火花。

/磚/火花/ python / pyspark / sql /dataframe.py:3605:FutureWarning: DataFrame。to_pandas_on_spark棄用。使用DataFrame。pandas_api代替。

warnings.warn (

錯誤:根:KeyboardInterrupt雖然發送命令。

回溯(最近的電話):

文件“/磚/火花/ python / pyspark / sql /熊貓/conversion.py在_collect_as_arrow”, 364行

結果=列表(batch_stream)

文件“/磚/火花/ python / pyspark / sql /熊貓/serializers.py在load_stream”,行56歲

批的self.serializer.load_stream(流):

文件“/磚/火花/ python / pyspark / sql /熊貓/serializers.py在load_stream”, 112行

讀者= pa.ipc.open_stream(流)

文件“/磚/ python / lib / python3.9 /網站/ pyarrow /ipc.py在open_stream”, 154行

  • 返回RecordBatchStreamReader(源)

我認為更大的VM部署更多的內存可能的工作。在ML的情況下,部署一個虛擬機更好。但引發工人也會泄漏磁盤上的數據,如果數據集大於內存大小。為什麼有記憶問題嗎?有沒有具體操作,引發工人不分割數據在磁盤上?

https://community.m.eheci.com/s/question/0D58Y00008tIaMySAK/how-spark-will-handles-1tb-data-if-it..。

Orianh
重視貢獻二世

嘿@Cheuk欣克利斯朵夫Poon

你共享整個集群內存使用的屏幕截圖,隻能你請司機指標和檢查他的RAM使用嗎?

在我的情況下,集群指標看起來不錯但當檢查隻有司機我看到我的RAM爆炸。

除此之外,我不知道.pandas_api()收集的所有數據到驅動程序,所以您可能想檢查這個。

@orian印地語

不僅使用pandas_api(),使用火花也會引起高內存使用。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map