語法
sklearn。linear_model。Ridge(alpha=1。0, fit_intercept=True, normalize=False, copy_X=True, max_iter=None, tol=0。001, solver=‘auto’, random_state=None)
Parameters
alpha
釋義: 正則化項係數,較大的值指定更強的正則化 linear_model。Ridge 設定:Alpha對應於其他線性模型(如Logistic迴歸或LinearSVC)中的C^-1。 如果傳遞陣列,則假定懲罰被特定於目標。 因此,它們必須在數量上對應。
fit_intercept
釋義:是否計算該模型的截距
設定:bool型,可選,預設True;如果使用中心化的資料,可以考慮設定為False,不考慮截距
normalize
釋義:是否對資料進行標準化處理,若不計算截距,則忽略此引數
設定:bool型,可選,預設False,建議將標準化的工作放在訓練模型之前,透過設定sklearn。preprocessing。StandardScaler來實現,而在此處設定為false;當fit_intercept設定為false的時候,這個引數會被自動忽略。如果為True,迴歸器會標準化輸入引數:減去平均值,並且除以相應的二範數
copy_X
釋義:是否對X複製
設定:bool型、可選、預設True;如為false,則即經過中心化,標準化後,把新資料覆蓋到原資料X上
max_iter
釋義:共軛梯度求解器的最大迭代次數,需要與solver求解器配合使用
設定:solver為sparse_cg和lsqr時,預設由scipy。sparse。linalg確定,solver為sag時,預設值為1000
tol
釋義:計算精度
設定:float型,預設=1e-3
solver
釋義:求解器{auto,svd,cholesky,lsqr,sparse_cg,sag,saga}
設定:
aotu:根據資料型別自動選擇求解器
svd:使用X的奇異值分解計算嶺係數,奇異矩陣比cholesky更穩定
cholesky:使用標準的scipy。linalg。solve函式獲得收斂的係數
sparse_cg:使用scipy。sparse。linalg。cg中的共軛梯度求解器。比cholesky更適合大規模資料(設定tol和max_iter的可能性)
lsqr:專用的正則化最小二乘方法scipy。sparse。linalg。lsqr
sag:隨機平均梯度下降;僅在fit_intercept為True時支援密集資料
saga:sag改進,無偏版。採用SAGA梯度下降法可以使模型快速收斂
random_state
釋義:隨機數生成器的種子,僅在solver=“sag”時使用
設定:int型, 預設None
Attributes
coef_
返回模型的估計係數(權重向量)
intercept_
線性模型的獨立項,一維情形下的截距
n_iter_
實際迭代次數
Methods
fit(self, X, y[, sample_weight])
輸入訓練樣本資料X,和對應的標記y
get_params(self[, deep])
返回函式linear_model。Ridge()內部的引數值
predict(self, X)
利用學習好的線性分類器,預測標記
score(self, X, y[, sample_weight])
返回模型的擬合優度判定係數
set_params(self, **params)
設定函式linear_model。Ridge()內部的引數