cohen_kappa_score#
- sklearn.metrics.cohen_kappa_score(y1, y2, *, labels=None, weights=None, sample_weight=None)[原始碼]#
計算科恩卡帕係數(Cohen’s kappa):一種衡量評分者之間一致性的統計量。
此函數計算科恩卡帕係數 [1],這是一個表達兩個評分者在分類問題上的一致性程度的分數。其定義為:
\[\kappa = (p_o - p_e) / (1 - p_e)\]其中 \(p_o\) 是任何樣本上標籤一致性的經驗機率(觀察到的一致性比例),而 \(p_e\) 是兩個評分者隨機分配標籤時的預期一致性。\(p_e\) 是使用每個評分者在類別標籤上的經驗先驗來估計的 [2]。
請在使用者指南中閱讀更多內容。
- 參數:
- y1形狀為 (n_samples,) 的類陣列 (array-like)
第一個評分者分配的標籤。
- y2形狀為 (n_samples,) 的類陣列 (array-like)
第二個評分者分配的標籤。卡帕統計量是對稱的,因此交換
y1
和y2
不會改變其值。- labels形狀為 (n_classes,) 的類陣列 (array-like),預設值為 None
用於索引矩陣的標籤列表。可用於選擇標籤的子集。如果為
None
,則會使用在y1
或y2
中至少出現一次的所有標籤。- weights{‘linear’, ‘quadratic’},預設值為 None
計算分數的權重類型。
None
表示不加權;“linear” 表示線性加權;“quadratic” 表示二次加權。- sample_weight形狀為 (n_samples,) 的類陣列 (array-like),預設值為 None
樣本權重。
- 返回值:
- kappa浮點數 (float)
卡帕統計量,其值介於 -1 和 1 之間。最大值表示完全一致;零或更低的值表示偶然一致。
參考文獻
範例
>>> from sklearn.metrics import cohen_kappa_score >>> y1 = ["negative", "positive", "negative", "neutral", "positive"] >>> y2 = ["negative", "positive", "negative", "neutral", "negative"] >>> cohen_kappa_score(y1, y2) np.float64(0.6875)