sklearn機器學習線性迴歸之Ridge迴歸引數速查手冊

sklearn機器學習線性迴歸之Ridge迴歸引數速查手冊

語法

sklearn。linear_model。Ridge(alpha=1。0, fit_intercept=True, normalize=False, copy_X=True, max_iter=None, tol=0。001, solver=‘auto’, random_state=None)

Parameters

alpha

釋義: 正則化項係數,較大的值指定更強的正則化 linear_model。Ridge 設定:Alpha對應於其他線性模型(如Logistic迴歸或LinearSVC)中的C^-1。 如果傳遞陣列,則假定懲罰被特定於目標。 因此,它們必須在數量上對應。

fit_intercept

釋義:是否計算該模型的截距

設定:bool型,可選,預設True;如果使用中心化的資料,可以考慮設定為False,不考慮截距

normalize

釋義:是否對資料進行標準化處理,若不計算截距,則忽略此引數

設定:bool型,可選,預設False,建議將標準化的工作放在訓練模型之前,透過設定sklearn。preprocessing。StandardScaler來實現,而在此處設定為false;當fit_intercept設定為false的時候,這個引數會被自動忽略。如果為True,迴歸器會標準化輸入引數:減去平均值,並且除以相應的二範數

copy_X

釋義:是否對X複製

設定:bool型、可選、預設True;如為false,則即經過中心化,標準化後,把新資料覆蓋到原資料X上

max_iter

釋義:共軛梯度求解器的最大迭代次數,需要與solver求解器配合使用

設定:solver為sparse_cg和lsqr時,預設由scipy。sparse。linalg確定,solver為sag時,預設值為1000

tol

釋義:計算精度

設定:float型,預設=1e-3

solver

釋義:求解器{auto,svd,cholesky,lsqr,sparse_cg,sag,saga}

設定:

aotu:根據資料型別自動選擇求解器

svd:使用X的奇異值分解計算嶺係數,奇異矩陣比cholesky更穩定

cholesky:使用標準的scipy。linalg。solve函式獲得收斂的係數

sparse_cg:使用scipy。sparse。linalg。cg中的共軛梯度求解器。比cholesky更適合大規模資料(設定tol和max_iter的可能性)

lsqr:專用的正則化最小二乘方法scipy。sparse。linalg。lsqr

sag:隨機平均梯度下降;僅在fit_intercept為True時支援密集資料

saga:sag改進,無偏版。採用SAGA梯度下降法可以使模型快速收斂

random_state

釋義:隨機數生成器的種子,僅在solver=“sag”時使用

設定:int型, 預設None

Attributes

coef_

返回模型的估計係數(權重向量)

intercept_

線性模型的獨立項,一維情形下的截距

n_iter_

實際迭代次數

Methods

fit(self, X, y[, sample_weight])

輸入訓練樣本資料X,和對應的標記y

get_params(self[, deep])

返回函式linear_model。Ridge()內部的引數值

predict(self, X)

利用學習好的線性分類器,預測標記

score(self, X, y[, sample_weight])

返回模型的擬合優度判定係數

set_params(self, **params)

設定函式linear_model。Ridge()內部的引數