取消
顯示的結果
而不是尋找
你的意思是:

數據攝取的csv文件使用自動裝卸機從S3是緩慢的

data_boy_2022
新的貢獻者三世

我有150 k小csv文件(~ 50 mb)存儲在S3中我想要下載到三角洲表。

CSV文件都存儲在S3以下結構:

桶/文件夾/ name_00000000_00000100.csv

桶/文件夾/ name_00000100_00000200.csv

這是我使用的代碼來啟動自動加載程序:

# #外部s3 bucket dbutils.fs山。山(f”s3a: / / {access_key}: {encoded_secret_key} @ {aws_bucket_name}”, f“/ mnt / {mount_name}”) # #自動裝卸機功能def autoload_csv (data_source, table_name、checkpoint_path模式):查詢=(火花。readStream .format .option (“cloudFiles (“cloudFiles”)。形式at", "csv") .option("header","true") .option("delimiter", ";") .option("rescuedDataColumn", "_rescue") .schema(schema) .load(data_source) .withColumn("timestamp",col("timestamp").cast(TimestampType())) .writeStream.format("delta") .trigger(once=True) .option("mergeSchema", "true") .option("checkpointLocation", checkpoint_path) .toTable(tableName=table_name) ) return query ## Define schema schema = StructType([ StructField("timestamp", LongType(), True), StructField(“aaa”, LongType(), True), StructField(“bbb”, LongType(), True), StructField(“ccc”, LongType(), True), StructField(“eee”, LongType(), True), StructField(“fff”, LongType(), True), StructField(“ggg”, StringType(), True), ]) ## start script (schema is input_data_path = ‘/input_data table_name = ‘default.input_data’ chkpt_path = '/tmp/input_data/_checkpoints' query = autoload_csv(data_source=input_data_path, table_name=table_name,checkpoint_path=chkpt_path, schema=schema)

需要兩小時八4核心/ 32 gb原始工人現在進口的所有文件。一定是錯的。

我有附加以下圖片:

  • 集群的概述
  • 集群指標(Ganglia)
  • SparkUI (DAG,事件的時間表,工作)

我怎麼能加快數據導入?

我怎麼能自己進一步調試問題?

集群指標

SparkUI_DAGSparkUI_JobSparkUI_EventTimeline

編輯:

我隻是試著相同的進口管道相同數量但是小文件(< 1 mb)。我發現它運行更平穩,當我刪除觸發器(一旦= True)。不幸的是這並不是幫助更大的文件。更大的文件自動加載程序初始化流需要永遠。

8回答說8

AmanSehgal
尊敬的貢獻者三世

你應該使用一個集群和一個沉重的驅動節點與2 - 4工作節點。這隻是插入和不進行連接。

使用像一個i3.4xl司機和i3。xl工人類型。

Kaniz
社區經理
社區經理

嗨@Jan R,我們一直沒有收到你的最後回應@Aman Sehgal,我檢查,看看他的建議幫助你。

否則,如果你有任何解決方案,請與社區分享,因為它可以幫助別人。

同時,請別忘了點擊“選擇最佳”按鈕時提供的信息幫助解決你的問題。

data_boy_2022
新的貢獻者三世

你好,

我有了更多的實驗有關的數據吞吐量。很快就會分享我的成果。

Vidula
尊敬的貢獻者

嗨@Jan R

希望一切都好!隻是想檢查如果你能解決你的問題,你會很高興分享解決方案或答案標記為最佳?其他的請讓我們知道如果你需要更多的幫助。

我們很想聽到你的聲音。

謝謝!

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map