我運行下麵的python代碼從一個磚的培訓材料。
進口mlflow mlflow進口。從pyspark.ml火花。回歸從pyspark.ml進口LinearRegression。從pyspark進口VectorAssembler特性。毫升從pyspark.ml進口管道。評估導入RegressionEvaluator mlflow.start_run (run_name =“LR-Single-Feature”)運行:# Define管道vec_assembler = VectorAssembler (inputCols =“臥室”,outputCol =“特性”)lr = LinearRegression (featuresCol =“特性”,labelCol =“價格”)管道=管道(階段= [vec_assembler, lr]) pipeline_model = pipeline.fit (train_df) # mlflow日誌參數。log_param mlflow(“標簽”,“價格”)。log_param(“特性”、“臥室”)# mlflow.spark日誌模式。log_model (pipeline_model,“模式”,input_example = train_df.limit (5) .toPandas ())
代碼的最後一行“mlflow.spark。log_model (pipeline_model,“模式”,input_example = train_df.limit (5) .toPandas ())“造成以下警告。
mlflow.utils警告。環境:遇到一個意想不到的錯誤而推斷pip需求(模式URI: / tmp / tmpchgj6je8味道:火花),跌回返回(“pyspark = = 3.3.0”)。日誌級別設置為調試看到完整的回溯。
誰能幫忙的原因和方法解決嗎?非常感謝!
我遇到過相同的警告當運行這個筆記本從噠。
我設法擺脫警告通過顯式地定義參數' conda_env = mlflow.spark.get_default_conda_env()”在“mlflow.spark.log_model ()”
文檔讀取
conda_env——字典的表示Conda環境或Conda環境yaml文件的路徑。如果提供,這decsribes這個模型應該運行的環境。至少,它應該包含在指定依賴關係get_default_conda_env ()。如果沒有,默認get_default_conda_env ()環境是添加到模型中。
所以我不知道為什麼我的解決方案。
醫生也讀
指定以下參數不能在同一時間:
所以我想知道如果有特殊的推理規則當所有三個默認是沒有的。