PowerIterationClustering¶
-
類
pyspark.ml.clustering。
PowerIterationClustering
( *,k:int=2,麥克斯特:int=20.,initMode:str=“隨機”,srcCol:str=“src”,dstCol:str=dst的,weightCol:可選(str]=沒有一個 ) ¶ -
迭代聚類(圖片),一個可伸縮的圖形開發的聚類算法林和科恩。從文摘:圖片發現低維嵌入的數據集使用截斷電力迭代規範化成對相似矩陣的數據。
這個類還沒有一個估計量/變壓器,使用
assignClusters ()
方法運行PowerIterationClustering算法。筆記
看到維基百科對譜聚類
例子
> > >數據=((1,0,0.5),…(2,0,0.5),(2,1,0.7),…(3,0,0.5),(3,1,0.7),(3,2,0.9),…(4,0,0.5),(4,1,0.7),(4,2,0.9),(4,3,1.1),…(5,0,0.5),(5,1,0.7),(5,2,0.9),(5,3,1.1),(5,4,1.3)]> > >df=火花。createDataFrame(數據)。toDF(" src ",“dst”,“重量”)。重新分區(1)> > >圖片=PowerIterationClustering(k=2,weightCol=“重量”)> > >圖片。setMaxIter(40)PowerIterationClustering……> > >作業=圖片。assignClusters(df)> > >作業。排序(作業。id)。顯示(截斷=假)+ - - - + - - - - - - - +| | |集群id+ - - - + - - - - - - - +| 0 | 0 || 1 | 0 || 2 | 0 || 3 | 0 || 4 | 0 || 5 | 1 |+ - - - + - - - - - - - +…> > >pic_path=temp_path+“/圖片”> > >圖片。保存(pic_path)> > >pic2=PowerIterationClustering。負載(pic_path)> > >pic2。getK()2> > >pic2。getMaxIter()40> > >pic2。assignClusters(df)。取(6)= =作業。取(6)真正的
方法
assignClusters
(數據集)PIC算法並返回一個集群運行任務為每個輸入頂點。
清晰的
(參數)清除參數映射的參數是否被顯式地設置。
複製
((額外的))創建這個實例的副本具有相同uid和一些額外的參數。
explainParam
(參數)解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。
返回文檔的所有參數選擇默認值和用戶提供的值。
extractParamMap
((額外的))提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。
獲得的價值
dstCol
或其默認值。獲得的價值
initMode
或其默認值。getK
()獲得的價值
k
或其默認值。麥克斯特的價值或其默認值。
getOrDefault
(參數)得到參數的值在用戶提供的參數映射或其默認值。
getParam
(paramName)通過它的名稱參數。
獲得的價值
srcCol
或其默認值。得到的價值weightCol或其默認值。
hasDefault
(參數)檢查是否一個參數有默認值。
hasParam
(paramName)測試這個實例包含一個參數是否與給定名稱(字符串)。
isDefined
(參數)檢查參數是否由用戶或顯式地設置一個默認值。
收取
(參數)檢查參數是否由用戶顯式地設置。
負載
(路徑)從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)。
讀
()返回一個MLReader這個類的實例。
保存
(路徑)這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。
集
(參數值)設置一個參數嵌入參數映射。
setDstCol
(值)設置的值
dstCol
。setInitMode
(值)設置的值
initMode
。setK
(值)設置的值
k
。setMaxIter
(值)設置的值
麥克斯特
。setparam
(自我,\ [k麥克斯特、initMode…))PowerIterationClustering設置參數。
setSrcCol
(值)設置的值
srcCol
。setWeightCol
(值)設置的值
weightCol
。寫
()返回一個MLWriter實例毫升實例。
屬性
返回所有參數命令的名字。
方法的文檔
-
assignClusters
( 數據集:pyspark.sql.dataframe.DataFrame )→pyspark.sql.dataframe.DataFrame¶ -
PIC算法並返回一個集群運行任務為每個輸入頂點。
- 參數
-
-
數據集
pyspark.sql.DataFrame
-
數據集與列src, dst,體重代表關聯矩陣,矩陣A的圖片。我假設src列值,dst列值是j,重量列值是相似年代,ij,必須負的。這是一個對稱矩陣,因此,ij,, =,,,,。對於任何(i, j)和非零相似,應該是(i, j s ij,)或(j,我,,,,,)的輸入。行與我= j將被忽略,因為我們假設年代,ij,, = 0.0。
-
數據集
- 返回
-
-
pyspark.sql.DataFrame
-
頂點的數據集,其中包含列id和對應的集群id。它將的模式:- id:長——集群:Int
-
-
清晰的
( 參數:pyspark.ml.param.Param )→沒有¶ -
清除參數映射的參數是否被顯式地設置。
-
複製
( 額外的:可選(ParamMap]=沒有一個 )→摩根大通¶ -
創建這個實例的副本具有相同uid和一些額外的參數。這個實現第一次調用參數。複製and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 參數
-
- 額外的 東西,可選
-
額外參數複製到新實例
- 返回
-
-
JavaParams
-
這個實例的副本
-
-
explainParam
( 參數:聯盟(str,pyspark.ml.param.Param] )→str¶ -
解釋一個參數並返回它的名字,醫生,和可選的默認值,用戶提供的字符串值。
-
explainParams
( )→str¶ -
返回文檔的所有參數選擇默認值和用戶提供的值。
-
extractParamMap
( 額外的:可選(ParamMap]=沒有一個 )→ParamMap¶ -
提取嵌入默認參數值和用戶提供的值,然後合並他們額外的值從輸入平麵參數映射,後者使用價值如果存在衝突,即。排序:默認參數值< <額外的用戶提供的值。
- 參數
-
- 額外的 東西,可選
-
額外的參數值
- 返回
-
- dict
-
合並後的參數映射
-
getMaxIter
( )→int¶ -
麥克斯特的價值或其默認值。
-
getOrDefault
( 參數:聯盟(str,pyspark.ml.param.Param(T]] )→聯盟(任何,T] ¶ -
得到參數的值在用戶提供的參數映射或其默認值。如果沒有設置提出了一個錯誤。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通過它的名稱參數。
-
getWeightCol
( )→str¶ -
得到的價值weightCol或其默認值。
-
hasDefault
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查是否一個參數有默認值。
-
hasParam
( paramName:str )→bool¶ -
測試這個實例包含一個參數是否與給定名稱(字符串)。
-
isDefined
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查參數是否由用戶或顯式地設置一個默認值。
-
收取
( 參數:聯盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
檢查參數是否由用戶顯式地設置。
-
classmethod
負載
( 路徑:str )→RL¶ -
從輸入路徑,讀取一個毫升實例的快捷方式read () .load(路徑)。
-
classmethod
讀
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一個MLReader這個類的實例。
-
保存
( 路徑:str )→沒有¶ -
這個毫升實例保存到給定的路徑,一個快捷方式的“寫().save(路徑)。
-
集
( 參數:pyspark.ml.param.Param,價值:任何 )→沒有¶ -
設置一個參數嵌入參數映射。
-
setDstCol
( 價值:str )→pyspark.ml.clustering.PowerIterationClustering ¶ -
設置的值
dstCol
。
-
setInitMode
( 價值:str )→pyspark.ml.clustering.PowerIterationClustering ¶ -
設置的值
initMode
。
-
setK
( 價值:int )→pyspark.ml.clustering.PowerIterationClustering ¶ -
設置的值
k
。
-
setMaxIter
( 價值:int )→pyspark.ml.clustering.PowerIterationClustering ¶ -
設置的值
麥克斯特
。
-
setparam
( 自我,\ *,k = 2,麥克斯特= 20,initMode = "隨機",srcCol = " src ",dstCol = " dst ",weightCol =沒有 ) ¶ -
PowerIterationClustering設置參數。
-
setSrcCol
( 價值:str )→pyspark.ml.clustering.PowerIterationClustering ¶ -
設置的值
srcCol
。
-
setWeightCol
( 價值:str )→pyspark.ml.clustering.PowerIterationClustering ¶ -
設置的值
weightCol
。
-
寫
( )→pyspark.ml.util.JavaMLWriter¶ -
返回一個MLWriter實例毫升實例。
屬性的文檔
-
dstCol
=參數(父母=‘定義’,name = ' dstCol ', doc =的名字輸入列的目的地頂點id”。) ¶
-
initMode
=參數(父母=‘定義’,name = ' initMode ', doc = "初始化算法。這可以是“隨機”使用一個隨機向量作為頂點屬性,或“學位”使用規範化的和與其他頂點相似之處。支持選擇:“隨機”和“學位”。”) ¶
-
k
=參數(父母=‘定義’,名字=“k”,醫生= '創建集群的數量。必須> 1。) ¶
-
麥克斯特
=參數(父母=‘定義’,name =“麥克斯特”,醫生=“馬克斯(> = 0)的迭代次數。) ¶
-
參數個數
¶ -
返回所有參數命令的名字。默認實現使用
dir ()
所有的屬性類型參數
。
-
srcCol
=參數(父母=‘定義’,name = ' srcCol ', doc =的名字輸入列的源點id。”) ¶
-
weightCol
=參數(父母=‘定義’,name = ' weightCol ', doc = '體重列名。如果這不是設置或空,我們對所有實例權重為1.0。”) ¶
-