cohen_kappa_score#

sklearn.metrics.cohen_kappa_score(y1, y2, *, labels=None, weights=None, sample_weight=None)[原始碼]#

計算科恩卡帕係數(Cohen’s kappa):一種衡量評分者之間一致性的統計量。

此函數計算科恩卡帕係數 [1],這是一個表達兩個評分者在分類問題上的一致性程度的分數。其定義為:

\[\kappa = (p_o - p_e) / (1 - p_e)\]

其中 \(p_o\) 是任何樣本上標籤一致性的經驗機率(觀察到的一致性比例),而 \(p_e\) 是兩個評分者隨機分配標籤時的預期一致性。\(p_e\) 是使用每個評分者在類別標籤上的經驗先驗來估計的 [2]

請在使用者指南中閱讀更多內容。

參數:
y1形狀為 (n_samples,) 的類陣列 (array-like)

第一個評分者分配的標籤。

y2形狀為 (n_samples,) 的類陣列 (array-like)

第二個評分者分配的標籤。卡帕統計量是對稱的,因此交換 y1y2 不會改變其值。

labels形狀為 (n_classes,) 的類陣列 (array-like),預設值為 None

用於索引矩陣的標籤列表。可用於選擇標籤的子集。如果為 None,則會使用在 y1y2 中至少出現一次的所有標籤。

weights{‘linear’, ‘quadratic’},預設值為 None

計算分數的權重類型。None 表示不加權;“linear” 表示線性加權;“quadratic” 表示二次加權。

sample_weight形狀為 (n_samples,) 的類陣列 (array-like),預設值為 None

樣本權重。

返回值:
kappa浮點數 (float)

卡帕統計量,其值介於 -1 和 1 之間。最大值表示完全一致;零或更低的值表示偶然一致。

參考文獻

範例

>>> from sklearn.metrics import cohen_kappa_score
>>> y1 = ["negative", "positive", "negative", "neutral", "positive"]
>>> y2 = ["negative", "positive", "negative", "neutral", "negative"]
>>> cohen_kappa_score(y1, y2)
np.float64(0.6875)