StringIndexerModel¶
-
類
pyspark.ml.feature。
StringIndexerModel
( java_model:可選(JavaObject]=沒有一個 ) ¶ -
模型擬合的
StringIndexer
。方法
清晰的
(參數)清除參數映射的參數是否被顯式地設置。
複製
((額外的))創建這個實例的副本具有相同uid和一些額外的參數。
explainParam
(參數)解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。
返回文檔的所有參數選擇默認值和用戶提供的值。
extractParamMap
((額外的))提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。
from_arrays_of_labels
(arrayOfLabels inputCols)構建模型直接從數組的數組的標簽字符串,需要積極SparkContext。
from_labels
(標簽,inputCol [、outputCol…])構造模型直接從字符串數組的標簽,需要積極SparkContext。
得到的價值handleInvalid或其默認值。
得到的價值inputCol或其默認值。
得到的價值inputCols或其默認值。
getOrDefault
(參數)得到參數的值在用戶提供的參數映射或其默認值。
得到的價值outputCol或其默認值。
得到的價值outputCols或其默認值。
getParam
(paramName)通過它的名稱參數。
獲得的價值
stringOrderType
或其默認值“frequencyDesc”。hasDefault
(參數)檢查是否一個參數有默認值。
hasParam
(paramName)測試這個實例包含一個參數是否與給定名稱(字符串)。
isDefined
(參數)檢查參數是否由用戶或顯式地設置一個默認值。
收取
(參數)檢查參數是否由用戶顯式地設置。
負載
(路徑)從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)。
讀
()返回一個MLReader這個類的實例。
保存
(路徑)這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。
集
(參數值)設置一個參數嵌入參數映射。
設置的值
handleInvalid
。setInputCol
(值)設置的值
inputCol
。setInputCols
(值)設置的值
inputCols
。setOutputCol
(值)設置的值
outputCol
。設置的值
outputCols
。變換
(數據集[params))與可選參數轉換的輸入數據集。
寫
()返回一個MLWriter實例毫升實例。
屬性
有序列表的標簽,對應指標分配。
數組有序列表的標簽,對應指標分配對每個輸入列。
返回所有參數命令的名字。
方法的文檔
-
清晰的
( 參數:pyspark.ml.param.Param )→沒有¶ -
清除參數映射的參數是否被顯式地設置。
-
複製
( 額外的:可選(ParamMap]=沒有一個 )→摩根大通¶ -
創建這個實例的副本具有相同uid和一些額外的參數。這個實現第一次調用參數。複製and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 參數
-
- 額外的 東西,可選
-
額外參數複製到新實例
- 返回
-
-
JavaParams
-
這個實例的副本
-
-
explainParam
( 參數:聯盟(str,pyspark.ml.param.Param] )→str¶ -
解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。
-
explainParams
( )→str¶ -
返回文檔的所有參數選擇默認值和用戶提供的值。
-
extractParamMap
( 額外的:可選(ParamMap]=沒有一個 )→ParamMap¶ -
提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。
- 參數
-
- 額外的 東西,可選
-
額外的參數值
- 返回
-
- dict
-
合並後的參數映射
-
classmethod
from_arrays_of_labels
( arrayOfLabels:列表(列表(str]],inputCols:列表(str],outputCols:可選(列表(str]]=沒有一個,handleInvalid:可選(str]=沒有一個 )→pyspark.ml.feature.StringIndexerModel ¶ -
構建模型直接從數組的數組的標簽字符串,需要積極SparkContext。
-
classmethod
from_labels
( 標簽:列表(str],inputCol:str,outputCol:可選(str]=沒有一個,handleInvalid:可選(str]=沒有一個 )→pyspark.ml.feature.StringIndexerModel ¶ -
構造模型直接從字符串數組的標簽,需要積極SparkContext。
-
getHandleInvalid
( )→str¶ -
得到的價值handleInvalid或其默認值。
-
getInputCol
( )→str¶ -
得到的價值inputCol或其默認值。
-
getInputCols
( )→列表(str] ¶ -
得到的價值inputCols或其默認值。
-
getOrDefault
( 參數:聯盟(str,pyspark.ml.param.Param(T]] )→聯盟(任何,T] ¶ -
得到參數的值在用戶提供的參數映射或其默認值。如果沒有設置提出了一個錯誤。
-
getOutputCol
( )→str¶ -
得到的價值outputCol或其默認值。
-
getOutputCols
( )→列表(str] ¶ -
得到的價值outputCols或其默認值。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通過它的名稱參數。
-
getStringOrderType
( )→str¶ -
獲得的價值
stringOrderType
或其默認值“frequencyDesc”。
-
hasDefault
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查是否一個參數有默認值。
-
hasParam
( paramName:str )→bool¶ -
測試這個實例包含一個參數是否與給定名稱(字符串)。
-
isDefined
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查參數是否由用戶或顯式地設置一個默認值。
-
收取
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查參數是否由用戶顯式地設置。
-
classmethod
負載
( 路徑:str )→RL¶ -
從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)。
-
classmethod
讀
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一個MLReader這個類的實例。
-
保存
( 路徑:str )→沒有¶ -
這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。
-
集
( 參數:pyspark.ml.param.Param,價值:任何 )→沒有¶ -
設置一個參數嵌入參數映射。
-
setHandleInvalid
( 價值:str )→pyspark.ml.feature.StringIndexerModel ¶ -
設置的值
handleInvalid
。
-
setInputCol
( 價值:str )→pyspark.ml.feature.StringIndexerModel ¶ -
設置的值
inputCol
。
-
setInputCols
( 價值:列表(str] )→pyspark.ml.feature.StringIndexerModel ¶ -
設置的值
inputCols
。
-
setOutputCol
( 價值:str )→pyspark.ml.feature.StringIndexerModel ¶ -
設置的值
outputCol
。
-
setOutputCols
( 價值:列表(str] )→pyspark.ml.feature.StringIndexerModel ¶ -
設置的值
outputCols
。
-
變換
( 數據集:pyspark.sql.dataframe.DataFrame,參數個數:可選(ParamMap]=沒有一個 )→pyspark.sql.dataframe.DataFrame¶ -
與可選參數轉換的輸入數據集。
- 參數
-
-
數據集
pyspark.sql.DataFrame
-
輸入數據集
- 參數個數 東西,可選
-
一個可選的參數覆蓋嵌入參數的地圖。
-
數據集
- 返回
-
-
pyspark.sql.DataFrame
-
改變了數據集
-
-
寫
( )→pyspark.ml.util.JavaMLWriter¶ -
返回一個MLWriter實例毫升實例。
屬性的文檔
-
handleInvalid
:pyspark.ml.param.Param (str) =參數(父母=‘定義’,name = ' handleInvalid ', doc = "如何處理無效數據(看不見的或NULL值)的特性和標簽列字符串類型。選擇“跳過”(過濾掉行無效數據),錯誤(拋出一個錯誤),或“保持”(把無效的數據放在一個特別的額外的桶,在指數numLabels)。”) ¶
-
inputCol
=參數(父母=‘定義’,name = ' inputCol ', doc =輸入列名稱。) ¶
-
inputCols
=參數(父母=‘定義’,name = ' inputCols ', doc =輸入列名稱。) ¶
-
標簽
¶ -
有序列表的標簽,對應指標分配。
它將在未來的版本中移除。使用labelsArray方法相反。
-
labelsArray
¶ -
數組有序列表的標簽,對應指標分配對每個輸入列。
-
outputCol
=參數(父母=‘定義’,name = ' outputCol ', doc =輸出列名稱。) ¶
-
outputCols
=參數(父母=‘定義’,name = ' outputCols ', doc =輸出列名稱。) ¶
-
參數個數
¶ -
返回所有參數命令的名字。默認實現使用
dir ()
所有的屬性類型參數
。
-
stringOrderType
:pyspark.ml.param.Param (str) =參數(父母=‘定義’,name = ' stringOrderType ', doc = '如何訂購標簽的字符串列。排序後的第一個標簽分配索引為0。支持選擇:frequencyDesc、frequencyAsc alphabetDesc alphabetAsc。默認是frequencyDesc。在相同的頻率下frequencyDesc / Asc,字符串是進一步按照字母順序排列) ¶
-