取消
顯示的結果
而不是尋找
你的意思是:

如何處理100 +表ETL通過結構化流火花?

往
新的貢獻者二世

我寫一個流媒體工作將執行ETL超過130表。我想知道有沒有其他更好的辦法。我在想另一個解決方案是為所有表編寫單獨的流媒體工作。

通過事件源數據來自美國疾病控製與預防中心樞紐在真正的時間。

2回答2

artsheiko
重視貢獻二世
重視貢獻二世

嗨,我想回答你的問題可能是有助於獲得更多的細節你想實現什麼,你現在遇到的瓶頸。

的確130表的處理在一個龐然大物可以挑戰的業務規則可能會改變將來,有一天處理的頻率也會不同(例如,您將了解一些信息可以以批處理模式處理)。

它也將是有用的考慮這個問題從團隊的角度:在處理同一個流工作的情況下,最有可能在未來,你將無法發布任務開發/支持這種同時處理幾個團隊成員之間。

往
新的貢獻者二世

嗨@Artem Sheiko,

謝謝你的詳細回複,我能理解你指的是什麼,但沒有要求在批量處理數據,還隻是一個副本的原始事務數據庫,我們不改變任何的轉換需要將數據複製到三角洲湖。

考慮一個小團隊,我們真的需要分開許多小單表流數據流?這將如何影響係統性能,按我的理解與流我們開始大然後逐步分解到小溪流如果需要嗎?

如果你可以參考我一些文檔,這將非常有用。

謝謝

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map