MultiTaskElasticNet#

class sklearn.linear_model.MultiTaskElasticNet(alpha=1.0, *, l1_ratio=0.5, fit_intercept=True, copy_X=True, max_iter=1000, tol=0.0001, warm_start=False, random_state=None, selection='cyclic')[原始碼]#

使用 L1/L2 混合範數作為正規化項訓練的多任務 ElasticNet 模型。

MultiTaskElasticNet 的最佳化目標是

(1 / (2 * n_samples)) * ||Y - XW||_Fro^2
+ alpha * l1_ratio * ||W||_21
+ 0.5 * alpha * (1 - l1_ratio) * ||W||_Fro^2

其中

||W||_21 = sum_i sqrt(sum_j W_ij ^ 2)

即每列範數的總和。

使用者指南中閱讀更多資訊。

參數:
alphafloat,預設值為 1.0

乘以 L1/L2 項的常數。預設值為 1.0。

l1_ratiofloat,預設值為 0.5

ElasticNet 混合參數,其中 0 < l1_ratio <= 1。當 l1_ratio = 1 時,懲罰為 L1/L2 懲罰。當 l1_ratio = 0 時,懲罰為 L2 懲罰。對於 0 < l1_ratio < 1,懲罰是 L1/L2 和 L2 的組合。

fit_interceptbool,預設值為 True

是否計算此模型的截距。如果設定為 false,則計算中不會使用截距(即,預期數據是置中的)。

copy_Xbool,預設值為 True

如果 True,則會複製 X;否則,可能會被覆寫。

max_iterint,預設值為 1000

最大迭代次數。

tolfloat,預設值為 1e-4

最佳化的容差:如果更新小於 tol,則最佳化程式碼會檢查對偶間隙是否達到最佳狀態,並持續執行直到其小於 tol

warm_startbool,預設值為 False

當設定為 True 時,重複使用先前呼叫的解來作為初始化,否則,只會清除先前的解。請參閱詞彙表

random_stateint,RandomState 實例,預設值為 None

選擇要更新的隨機特徵的虛擬隨機數產生器的種子。當 selection == ‘random’ 時使用。傳遞一個 int 以便在多個函數呼叫中產生可重複的輸出。請參閱詞彙表

selection{‘cyclic’、‘random’},預設值為 ‘cyclic’

如果設定為 ‘random’,則每次迭代都會更新隨機係數,而不是預設依序循環特徵。這(設定為 ‘random’)通常會導致顯著更快的收斂,尤其是在 tol 高於 1e-4 時。

屬性:
intercept_形狀為 (n_targets,) 的 ndarray

決策函數中的獨立項。

coef_形狀為 (n_targets, n_features) 的 ndarray

參數向量(成本函數公式中的 W)。如果在 fit 時傳入 1D y(非多任務使用),則 coef_ 會是 1D 陣列。請注意,coef_ 儲存 W 的轉置,即 W.T

n_iter_int

座標下降求解器執行以達到指定容差的迭代次數。

dual_gap_float

最佳化結束時的對偶間隙。

eps_float

目標 y 的變異數縮放後的容差。

sparse_coef_形狀為 (n_features,) 或 (n_targets, n_features) 的稀疏矩陣

擬合 coef_ 的稀疏表示。

n_features_in_int

fit 期間看到的特徵數量。

在 0.24 版中加入。

feature_names_in_形狀為 (n_features_in_,) 的 ndarray

fit 期間看到的特徵名稱。僅當 X 具有全部為字串的特徵名稱時,才會定義。

在 1.0 版中加入。

另請參閱

MultiTaskElasticNetCV

具有內建交叉驗證的多任務 L1/L2 ElasticNet。

ElasticNet

以結合 L1 和 L2 先驗作為正規化項的線性迴歸。

MultiTaskLasso

使用 L1/L2 混合範數作為正規化項訓練的多任務 Lasso 模型。

註解

用於擬合模型的演算法是座標下降。

為了避免不必要的記憶體重複,fit 方法的 X 和 y 引數應直接作為 Fortran 相鄰的 numpy 陣列傳遞。

範例

>>> from sklearn import linear_model
>>> clf = linear_model.MultiTaskElasticNet(alpha=0.1)
>>> clf.fit([[0,0], [1, 1], [2, 2]], [[0, 0], [1, 1], [2, 2]])
MultiTaskElasticNet(alpha=0.1)
>>> print(clf.coef_)
[[0.45663524 0.45612256]
 [0.45663524 0.45612256]]
>>> print(clf.intercept_)
[0.0872422 0.0872422]
fit(X, y)[原始碼]#

使用座標下降擬合 MultiTaskElasticNet 模型。

參數:
X形狀為 (n_samples, n_features) 的 ndarray

資料。

y形狀為 (n_samples, n_targets) 的 ndarray

目標。如有必要,將強制轉換為 X 的 dtype。

傳回:
self物件

已擬合的估計器。

註解

座標下降是一種一次考慮一欄資料的演算法,因此如有必要,它會自動將 X 輸入轉換為 Fortran 相鄰的 numpy 陣列。

為了避免記憶體重新配置,建議直接使用該格式在記憶體中配置初始資料。

get_metadata_routing()[原始碼]#

取得此物件的中繼資料路由。

請檢查使用者指南,了解路由機制如何運作。

傳回:
routingMetadataRequest

封裝路由資訊的MetadataRequest

get_params(deep=True)[原始碼]#

取得此估算器(estimator)的參數。

參數:
deepbool,預設值為 True

若為 True,將會回傳此估算器以及包含的子物件(也是估算器)的參數。

傳回:
paramsdict

參數名稱對應到其值的字典。

static path(X, y, *, l1_ratio=0.5, eps=0.001, n_alphas=100, alphas=None, precompute='auto', Xy=None, copy_X=True, coef_init=None, verbose=False, return_n_iter=False, positive=False, check_input=True, **params)[原始碼]#

使用座標下降法計算彈性網路路徑。

單一輸出和多重輸出的彈性網路最佳化函數不同。

對於單一輸出任務,它是

1 / (2 * n_samples) * ||y - Xw||^2_2
+ alpha * l1_ratio * ||w||_1
+ 0.5 * alpha * (1 - l1_ratio) * ||w||^2_2

對於多重輸出任務,它是

(1 / (2 * n_samples)) * ||Y - XW||_Fro^2
+ alpha * l1_ratio * ||W||_21
+ 0.5 * alpha * (1 - l1_ratio) * ||W||_Fro^2

其中

||W||_21 = \sum_i \sqrt{\sum_j w_{ij}^2}

即每個列的範數總和。

請在使用者指南中閱讀更多資訊。

參數:
X類陣列(array-like)或稀疏矩陣,形狀為 (n_samples, n_features)

訓練資料。直接傳遞為 Fortran 連續資料,以避免不必要的記憶體複製。如果 y 是單一輸出,則 X 可以是稀疏矩陣。

y類陣列(array-like)或稀疏矩陣,形狀為 (n_samples,) 或 (n_samples, n_targets)

目標值。

l1_ratiofloat,預設值為 0.5

在彈性網路中傳遞的介於 0 和 1 之間的數字(l1 和 l2 懲罰之間的縮放)。l1_ratio=1 對應到 Lasso。

epsfloat,預設值為 1e-3

路徑的長度。eps=1e-3 表示 alpha_min / alpha_max = 1e-3

n_alphasint,預設值為 100

沿著正規化路徑的 alpha 數量。

alphas類陣列(array-like),預設值為 None

計算模型的 alpha 列表。如果為 None,則會自動設定 alpha。

precompute‘auto’、bool 或形狀為 (n_features, n_features) 的類陣列(array-like),預設值為 ‘auto’

是否使用預先計算的 Gram 矩陣來加速計算。如果設定為 'auto',則由我們決定。Gram 矩陣也可以作為參數傳遞。

Xy形狀為 (n_features,) 或 (n_features, n_targets) 的類陣列(array-like),預設值為 None

可以預先計算的 Xy = np.dot(X.T, y)。僅當預先計算 Gram 矩陣時才有用。

copy_Xbool,預設值為 True

如果 True,則會複製 X;否則,可能會被覆寫。

coef_init形狀為 (n_features, ) 的類陣列(array-like),預設值為 None

係數的初始值。

verbosebool 或 int,預設值為 False

詳細程度。

return_n_iterbool,預設值為 False

是否回傳迭代次數。

positivebool,預設值為 False

如果設定為 True,則強制係數為正數。(僅當 y.ndim == 1 時允許)。

check_inputbool,預設值為 True

如果設定為 False,則會跳過輸入驗證檢查(包括提供的 Gram 矩陣)。假設它們由呼叫者處理。

**paramskwargs

傳遞給座標下降解算器的關鍵字引數。

傳回:
alphas形狀為 (n_alphas,) 的 ndarray

計算模型的路徑上的 alpha 值。

coefs形狀為 (n_features, n_alphas) 或 (n_targets, n_features, n_alphas) 的 ndarray

沿路徑的係數。

dual_gaps形狀為 (n_alphas,) 的 ndarray

每個 alpha 的最佳化結束時的對偶間隙。

n_itersint 的列表

座標下降最佳化器達到每個 alpha 指定容差所用的迭代次數。(當 return_n_iter 設定為 True 時回傳)。

另請參閱

MultiTaskElasticNet

使用 L1/L2 混合範數作為正規化項訓練的多任務 ElasticNet 模型。

MultiTaskElasticNetCV

具有內建交叉驗證的多任務 L1/L2 ElasticNet。

ElasticNet

以結合 L1 和 L2 先驗作為正規化項的線性迴歸。

ElasticNetCV

沿著正規化路徑進行迭代擬合的彈性網路模型。

註解

有關範例,請參閱examples/linear_model/plot_lasso_lasso_lars_elasticnet_path.py

範例

>>> from sklearn.linear_model import enet_path
>>> from sklearn.datasets import make_regression
>>> X, y, true_coef = make_regression(
...    n_samples=100, n_features=5, n_informative=2, coef=True, random_state=0
... )
>>> true_coef
array([ 0.        ,  0.        ,  0.        , 97.9..., 45.7...])
>>> alphas, estimated_coef, _ = enet_path(X, y, n_alphas=3)
>>> alphas.shape
(3,)
>>> estimated_coef
 array([[ 0.        ,  0.78...,  0.56...],
        [ 0.        ,  1.12...,  0.61...],
        [-0.        , -2.12..., -1.12...],
        [ 0.        , 23.04..., 88.93...],
        [ 0.        , 10.63..., 41.56...]])
predict(X)[原始碼]#

使用線性模型進行預測。

參數:
X類陣列(array-like)或稀疏矩陣,形狀為 (n_samples, n_features)

樣本。

傳回:
C陣列,形狀為 (n_samples,)

回傳預測值。

score(X, y, sample_weight=None)[原始碼]#

回傳預測的決定係數。

決定係數 \(R^2\) 定義為 \((1 - \frac{u}{v})\),其中 \(u\) 是殘差平方和 ((y_true - y_pred)** 2).sum(),而 \(v\) 是總平方和 ((y_true - y_true.mean()) ** 2).sum()。最佳可能分數為 1.0,且可以為負數(因為模型可能任意更差)。始終預測 y 的期望值(忽略輸入特徵)的恆定模型將獲得 0.0 的 \(R^2\) 分數。

參數:
X形狀為 (n_samples, n_features) 的類陣列(array-like)

測試樣本。對於某些估算器,這可能是預先計算的核矩陣或形狀為 (n_samples, n_samples_fitted) 的通用物件列表,其中 n_samples_fitted 是估算器擬合中使用的樣本數。

y形狀為 (n_samples,) 或 (n_samples, n_outputs) 的類陣列(array-like)

X 的真實值。

sample_weight形狀為 (n_samples,) 的類陣列(array-like),預設值為 None

樣本權重。

傳回:
scorefloat

self.predict(X) 相對於 y\(R^2\)

註解

在回歸器上呼叫 score 時使用的 \(R^2\) 分數,從 0.23 版本開始使用 multioutput='uniform_average',以與 r2_score 的預設值保持一致。這會影響所有多輸出回歸器的 score 方法(除了 MultiOutputRegressor 之外)。

set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') MultiTaskElasticNet[原始碼]#

要求傳遞給 fit 方法的中繼資料。

請注意,此方法僅在 enable_metadata_routing=True 時才相關(請參閱 sklearn.set_config)。請參閱使用者指南,瞭解路由機制如何運作。

每個參數的選項為

  • True:要求提供元數據,並在提供時傳遞給 fit。如果未提供元數據,則會忽略此請求。

  • False:不要求提供元數據,並且元估計器不會將其傳遞給 fit

  • None:不要求提供元數據,如果使用者提供元數據,元估計器會引發錯誤。

  • str:元數據應使用此給定的別名而不是原始名稱傳遞給元估計器。

預設值 (sklearn.utils.metadata_routing.UNCHANGED) 會保留現有的請求。這允許您更改某些參數的請求,而不更改其他參數的請求。

在 1.3 版本中新增。

注意

只有當此估計器用作元估計器的子估計器時,此方法才相關,例如在 Pipeline 內使用。否則它不會產生任何影響。

參數:
sample_weightstr、True、False 或 None,預設值為 sklearn.utils.metadata_routing.UNCHANGED

fitsample_weight 參數的元數據路由。

傳回:
self物件

更新後的物件。

set_params(**params)[source]#

設定此估計器的參數。

此方法適用於簡單的估計器以及巢狀物件(例如 Pipeline)。後者的參數形式為 <component>__<parameter>,因此可以更新巢狀物件的每個元件。

參數:
**paramsdict

估計器參數。

傳回:
self估計器實例

估計器實例。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') MultiTaskElasticNet[source]#

請求傳遞到 score 方法的元數據。

請注意,此方法僅在 enable_metadata_routing=True 時才相關(請參閱 sklearn.set_config)。請參閱使用者指南,瞭解路由機制如何運作。

每個參數的選項為

  • True:要求提供元數據,並在提供時傳遞給 score。如果未提供元數據,則會忽略此請求。

  • False:不要求提供元數據,並且元估計器不會將其傳遞給 score

  • None:不要求提供元數據,如果使用者提供元數據,元估計器會引發錯誤。

  • str:元數據應使用此給定的別名而不是原始名稱傳遞給元估計器。

預設值 (sklearn.utils.metadata_routing.UNCHANGED) 會保留現有的請求。這允許您更改某些參數的請求,而不更改其他參數的請求。

在 1.3 版本中新增。

注意

只有當此估計器用作元估計器的子估計器時,此方法才相關,例如在 Pipeline 內使用。否則它不會產生任何影響。

參數:
sample_weightstr、True、False 或 None,預設值為 sklearn.utils.metadata_routing.UNCHANGED

scoresample_weight 參數的元數據路由。

傳回:
self物件

更新後的物件。

property sparse_coef_#

擬合 coef_ 的稀疏表示。