取消
顯示的結果
而不是尋找
你的意思是:

如何解決“警告mlflow.utils。運行時環境”mlflow磚嗎?

jsu999
新的貢獻者二世

我運行下麵的python代碼從一個磚的培訓材料。

進口mlflow mlflow進口。從pyspark.ml火花。回歸從pyspark.ml進口LinearRegression。從pyspark進口VectorAssembler特性。毫升從pyspark.ml進口管道。評估導入RegressionEvaluator mlflow.start_run (run_name =“LR-Single-Feature”)運行:# Define管道vec_assembler = VectorAssembler (inputCols =“臥室”,outputCol =“特性”)lr = LinearRegression (featuresCol =“特性”,labelCol =“價格”)管道=管道(階段= [vec_assembler, lr]) pipeline_model = pipeline.fit (train_df) # mlflow日誌參數。log_param mlflow(“標簽”,“價格”)。log_param(“特性”、“臥室”)# mlflow.spark日誌模式。log_model (pipeline_model,“模式”,input_example = train_df.limit (5) .toPandas ())

代碼的最後一行“mlflow.spark。log_model (pipeline_model,“模式”,input_example = train_df.limit (5) .toPandas ())“造成以下警告。

mlflow.utils警告。環境:遇到一個意想不到的錯誤而推斷pip需求(模式URI: / tmp / tmpchgj6je8味道:火花),跌回返回(“pyspark = = 3.3.0”)。日誌級別設置為調試看到完整的回溯。

誰能幫忙的原因和方法解決嗎?非常感謝!

4回複4

Debayan
尊敬的貢獻者三世
尊敬的貢獻者三世

你好,

如果你想記錄一個模型,你能嚐試sparknlp需求傳遞到extra_pip_requirements論點嗎?

請讓我們知道,幫助?

jsu999
新的貢獻者二世

謝謝你debayan !

我如何通過sparknlp要求extra_pip_requirements論點嗎?你能發送樣本代碼嗎?非常感謝!

jsu999
新的貢獻者二世

使用sparknlp也,我不是,我隻是做一個簡單的線性回歸。謝謝你!

美聯儲
新的貢獻者三世

我遇到過相同的警告當運行這個筆記本從噠。

https://github.com/databricks-academy/scalable-machine-learning-with-apache-spark-english/blob/publi..。

我設法擺脫警告通過顯式地定義參數' conda_env = mlflow.spark.get_default_conda_env()”在“mlflow.spark.log_model ()”

文檔讀取

conda_env——字典的表示Conda環境或Conda環境yaml文件的路徑。如果提供,這decsribes這個模型應該運行的環境。至少,它應該包含在指定依賴關係get_default_conda_env ()。如果沒有,默認get_default_conda_env ()環境是添加到模型中。

所以我不知道為什麼我的解決方案。

醫生也讀

指定以下參數不能在同一時間:

  • conda_env
  • pip_requirements
  • extra_pip_requirements

所以我想知道如果有特殊的推理規則當所有三個默認是沒有的。

歡迎來到磚社區:讓學習、網絡和一起慶祝

加入我們的快速增長的數據專業人員和專家的80 k +社區成員,準備發現,幫助和合作而做出有意義的聯係。

點擊在這裏注冊今天,加入!

參與令人興奮的技術討論,加入一個組與你的同事和滿足我們的成員。

Baidu
map