取消
顯示的結果
而不是尋找
你的意思是:

有可能編寫一個pyspark dataframe定製日誌表日誌分析工作區嗎?

frank7
新的貢獻者二世

我有一個pyspark dataframe包含的信息表,我對sql數據庫(創建日期、行數等)

樣本數據:

{“天”:“2023-04-28”,“環境”:“開發”、“數據庫名”:“默認”,“表”:“折扣”,“CountRows”: 31253}

我想寫這dataframe創建一個自定義日誌表,我在日誌分析工作區,這是可能的嗎?

謝謝你!

1接受解決方案

接受的解決方案

匿名
不適用

@Bruno西蒙斯:她

是的,可以編寫一個PySpark DataFrame定製日誌表日誌分析工作區使用Azure日誌分析工作區API。

這是一個高度概括的步驟可以遵循:

  1. 創建一個Azure日誌分析工作區並獲得工作區ID和主鍵。
  2. 使用pip安裝azure-loganalytics的圖書館。
  3. 創建一個新的“LogAnalyticsWorkspace”類的實例的azure。loganalytics模塊使用工作區ID和主鍵。
  4. 轉換您的PySpark DataFrame到熊貓DataFrame使用“toPandas()的方法。
  5. 熊貓DataFrame轉換為一個JSON字符串使用的to_json()的方法。
  6. 使用“LogAnalyticsWorkspace”實例將JSON字符串發送到自定義日誌表,並使用“post_data()的方法。

這裏有一些示例代碼:

從azure。loganalytics進口LogAnalyticsWorkspace大熊貓作為pd #替換為導入工作區ID和主鍵workspace_id =“YOUR_WORKSPACE_ID”primary_key =“YOUR_PRIMARY_KEY”# LogAnalyticsWorkspace類的實例創建一個新的工作區= LogAnalyticsWorkspace (workspace_id primary_key) #轉換PySpark DataFrame大熊貓DataFrame pandas_df = spark_df.toPandas() #熊貓DataFrame轉換為JSON字符串json_str = pandas_df.to_json(東方=“記錄”)# JSON字符串發送到自定義日誌表日誌分析工作區工作區。post_data (CUSTOM_LOG_TABLE_NAME, json_str)

取代“YOUR_WORKSPACE_ID”,“YOUR_PRIMARY_KEY”,和“CUSTOM_LOG_TABLE_NAME”自己的價值觀。

在原帖子查看解決方案

2回答2

匿名
不適用

@Bruno西蒙斯:她

是的,可以編寫一個PySpark DataFrame定製日誌表日誌分析工作區使用Azure日誌分析工作區API。

這是一個高度概括的步驟可以遵循:

  1. 創建一個Azure日誌分析工作區並獲得工作區ID和主鍵。
  2. 使用pip安裝azure-loganalytics的圖書館。
  3. 創建一個新的“LogAnalyticsWorkspace”類的實例的azure。loganalytics模塊使用工作區ID和主鍵。
  4. 轉換您的PySpark DataFrame到熊貓DataFrame使用“toPandas()的方法。
  5. 熊貓DataFrame轉換為一個JSON字符串使用的to_json()的方法。
  6. 使用“LogAnalyticsWorkspace”實例將JSON字符串發送到自定義日誌表,並使用“post_data()的方法。

這裏有一些示例代碼:

從azure。loganalytics進口LogAnalyticsWorkspace大熊貓作為pd #替換為導入工作區ID和主鍵workspace_id =“YOUR_WORKSPACE_ID”primary_key =“YOUR_PRIMARY_KEY”# LogAnalyticsWorkspace類的實例創建一個新的工作區= LogAnalyticsWorkspace (workspace_id primary_key) #轉換PySpark DataFrame大熊貓DataFrame pandas_df = spark_df.toPandas() #熊貓DataFrame轉換為JSON字符串json_str = pandas_df.to_json(東方=“記錄”)# JSON字符串發送到自定義日誌表日誌分析工作區工作區。post_data (CUSTOM_LOG_TABLE_NAME, json_str)

取代“YOUR_WORKSPACE_ID”,“YOUR_PRIMARY_KEY”,和“CUSTOM_LOG_TABLE_NAME”自己的價值觀。

frank7
新的貢獻者二世

非常感謝@Suteja卡努裏人:slightly_smiling_face:

相反的,你知道我可以閱讀那些表和使用作為Pyspark DataFrames嗎?

再一次非常感謝! !

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map