範例#

這是展示如何使用 scikit-learn 的範例庫。有些範例示範了 API 的一般用法,有些則以教學形式示範了特定應用。此外,請查看我們的 使用者指南 以取得更詳細的說明。

發行重點#

這些範例說明了 scikit-learn 發行版本的主要功能。

scikit-learn 1.6 的發行重點

scikit-learn 1.6 的發行重點

scikit-learn 1.5 的發行重點

scikit-learn 1.5 的發行重點

scikit-learn 1.4 的發行重點

scikit-learn 1.4 的發行重點

scikit-learn 1.3 的發行重點

scikit-learn 1.3 的發行重點

scikit-learn 1.2 的發行重點

scikit-learn 1.2 的發行重點

scikit-learn 1.1 的發行重點

scikit-learn 1.1 的發行重點

scikit-learn 1.0 的發行重點

scikit-learn 1.0 的發行重點

scikit-learn 0.24 的發行重點

scikit-learn 0.24 的發行重點

scikit-learn 0.23 的發行重點

scikit-learn 0.23 的發行重點

scikit-learn 0.22 的發行重點

scikit-learn 0.22 的發行重點

雙向分群#

關於雙向分群技術的範例。

譜雙聚類演算法的示範

譜雙聚類演算法的示範

譜共聚類演算法的示範

譜共聚類演算法的示範

使用譜共聚類演算法進行文件雙聚類

使用譜共聚類演算法進行文件雙聚類

校準#

說明分類器預測機率校準的範例。

分類器校準的比較

分類器校準的比較

機率校準曲線

機率校準曲線

3 類分類的機率校準

3 類分類的機率校準

分類器的機率校準

分類器的機率校準

分類#

關於分類演算法的一般範例。

分類器比較

分類器比較

具有共變異數橢圓的線性與二次判別分析

具有共變異數橢圓的線性與二次判別分析

用於分類的常態、Ledoit-Wolf 和 OAS 線性判別分析

用於分類的常態、Ledoit-Wolf 和 OAS 線性判別分析

繪製分類機率

繪製分類機率

辨識手寫數字

辨識手寫數字

分群#

關於 sklearn.cluster 模組的範例。

在手寫數字資料上進行 K-Means 分群的示範

在手寫數字資料上進行 K-Means 分群的示範

在硬幣影像上進行結構化 Ward 階層式分群的示範

在硬幣影像上進行結構化 Ward 階層式分群的示範

均值偏移分群演算法的示範

均值偏移分群演算法的示範

分群效能評估中機會調整

分群效能評估中機會調整

有結構和無結構的聚合分群

有結構和無結構的聚合分群

使用不同度量的聚合分群

使用不同度量的聚合分群

K-Means++ 初始化範例

K-Means++ 初始化範例

二分 K-Means 和常規 K-Means 效能比較

二分 K-Means 和常規 K-Means 效能比較

比較 BIRCH 和 MiniBatchKMeans

比較 BIRCH 和 MiniBatchKMeans

在玩具資料集上比較不同的分群演算法

在玩具資料集上比較不同的分群演算法

在玩具資料集上比較不同的階層式連結方法

在玩具資料集上比較不同的階層式連結方法

K-Means 和 MiniBatchKMeans 分群演算法的比較

K-Means 和 MiniBatchKMeans 分群演算法的比較

DBSCAN 分群演算法的示範

DBSCAN 分群演算法的示範

HDBSCAN 分群演算法的示範

HDBSCAN 分群演算法的示範

OPTICS 分群演算法的示範

OPTICS 分群演算法的示範

親和力傳播分群演算法的示範

親和力傳播分群演算法的示範

k-means 假設的示範

k-means 假設的示範

k-means 初始化影響的實證評估

k-means 初始化影響的實證評估

特徵聚合

特徵聚合

特徵聚合與單變數選擇

特徵聚合與單變數選擇

階層式分群:結構化與非結構化 Ward

階層式分群:結構化與非結構化 Ward

歸納式分群

歸納式分群

線上學習臉部部分的字典

線上學習臉部部分的字典

繪製階層式分群樹狀圖

繪製階層式分群樹狀圖

將希臘硬幣圖片分割成區域

將希臘硬幣圖片分割成區域

使用 KMeans 分群上的輪廓分析選擇叢集數量

使用 KMeans 分群上的輪廓分析選擇叢集數量

用於影像分割的譜分群

用於影像分割的譜分群

在數位 2D 嵌入上的各種聚合分群

在數位 2D 嵌入上的各種聚合分群

向量量化範例

向量量化範例

共變異數估計#

關於 sklearn.covariance 模組的範例。

Ledoit-Wolf 與 OAS 估計

Ledoit-Wolf 與 OAS 估計

穩健共變異數估計和馬氏距離的相關性

穩健共變異數估計和馬氏距離的相關性

穩健與經驗共變異數估計

穩健與經驗共變異數估計

收縮共變異數估計:LedoitWolf 與 OAS 和最大似然

收縮共變異數估計:LedoitWolf 與 OAS 和最大似然

稀疏逆共變異數估計

稀疏逆共變異數估計

交叉分解#

關於 sklearn.cross_decomposition 模組的範例。

比較交叉分解方法

比較交叉分解方法

主成分迴歸與偏最小平方法迴歸

主成分迴歸與偏最小平方法迴歸

資料集範例#

關於 sklearn.datasets 模組的範例。

繪製隨機產生的多標籤資料集

繪製隨機產生的多標籤資料集

決策樹#

關於 sklearn.tree 模組的範例。

決策樹迴歸

決策樹迴歸

繪製在 iris 資料集上訓練的決策樹的決策面

繪製在 iris 資料集上訓練的決策樹的決策面

使用成本複雜度修剪對決策樹進行後修剪

使用成本複雜度修剪對決策樹進行後修剪

了解決策樹結構

了解決策樹結構

分解#

關於 sklearn.decomposition 模組的範例。

使用 FastICA 的盲源分離

使用 FastICA 的盲源分離

Iris 資料集的 LDA 和 PCA 2D 投影的比較

Iris 資料集的 LDA 和 PCA 2D 投影的比較

臉部資料集分解

臉部資料集分解

因子分析(帶旋轉)以視覺化模式

因子分析(帶旋轉)以視覺化模式

2D 點雲上的 FastICA

2D 點雲上的 FastICA

使用字典學習進行影像去噪

使用字典學習進行影像去噪

增量 PCA

增量 PCA

核 PCA

核 PCA

使用機率 PCA 和因子分析 (FA) 的模型選擇

使用機率 PCA 和因子分析 (FA) 的模型選擇

Iris 資料集上的主成分分析 (PCA)

Iris 資料集上的主成分分析 (PCA)

使用預先計算的字典進行稀疏編碼

使用預先計算的字典進行稀疏編碼

開發估算器#

關於開發自訂估算器的範例。

__sklearn_is_fitted__ 作為開發人員 API

__sklearn_is_fitted__ 作為開發人員 API

集成方法#

關於 sklearn.ensemble 模組的範例。

梯度提升中對類別特徵的支援

梯度提升中對類別特徵的支援

使用堆疊組合預測器

使用堆疊組合預測器

比較隨機森林和直方圖梯度提升模型

比較隨機森林和直方圖梯度提升模型

比較隨機森林和多輸出元估計器

比較隨機森林和多輸出元估計器

使用 AdaBoost 的決策樹迴歸

使用 AdaBoost 的決策樹迴歸

梯度提升中的早期停止

梯度提升中的早期停止

具有樹木森林的特徵重要性

具有樹木森林的特徵重要性

使用樹木集成進行特徵轉換

使用樹木集成進行特徵轉換

直方圖梯度提升樹中的特徵

直方圖梯度提升樹中的特徵

梯度提升袋外估計

梯度提升袋外估計

梯度提升迴歸

梯度提升迴歸

梯度提升正規化

梯度提升正規化

使用完全隨機樹的雜湊特徵轉換

使用完全隨機樹的雜湊特徵轉換

IsolationForest 範例

IsolationForest 範例

單調約束

單調約束

多類別 AdaBoost 決策樹

多類別 AdaBoost 決策樹

隨機森林的袋外誤差

隨機森林的袋外誤差

繪製 VotingClassifier 計算的類別機率

繪製 VotingClassifier 計算的類別機率

繪製個別和投票迴歸預測

繪製個別和投票迴歸預測

繪製 VotingClassifier 的決策邊界

繪製 VotingClassifier 的決策邊界

繪製 iris 資料集上樹木集成的決策面

繪製 iris 資料集上樹木集成的決策面

梯度提升迴歸的預測區間

梯度提升迴歸的預測區間

單一估計器與裝袋:偏差-變異數分解

單一估計器與裝袋:偏差-變異數分解

雙類別 AdaBoost

雙類別 AdaBoost

基於真實世界資料集的範例#

將應用程式應用於具有一些中型資料集或互動式使用者介面的真實世界問題。

壓縮感知:具有 L1 先驗(Lasso)的斷層掃描重建

壓縮感知:具有 L1 先驗(Lasso)的斷層掃描重建

使用特徵臉和 SVM 的臉部辨識範例

使用特徵臉和 SVM 的臉部辨識範例

使用核 PCA 的影像去噪

使用核 PCA 的影像去噪

用於時間序列預測的滯後特徵

用於時間序列預測的滯後特徵

模型複雜度影響

模型複雜度影響

文字文件的核心外分類

文字文件的核心外分類

在真實資料集上的離群值檢測

在真實資料集上的離群值檢測

預測延遲

預測延遲

物種分布建模

物種分布建模

時間相關的特徵工程

時間相關的特徵工程

使用非負矩陣分解和潛在狄利克雷分配的主題提取

使用非負矩陣分解和潛在狄利克雷分配的主題提取

視覺化股市結構

視覺化股市結構

維基百科主特徵向量

維基百科主特徵向量

特徵選擇#

關於 sklearn.feature_selection 模組的範例。

F 檢定與互資訊的比較

F 檢定與互資訊的比較

基於模型的循序特徵選擇

基於模型的循序特徵選擇

Pipeline ANOVA SVM

Pipeline ANOVA SVM

遞迴特徵消除

遞迴特徵消除

使用交叉驗證進行遞迴特徵消除

使用交叉驗證進行遞迴特徵消除

單變數特徵選擇

單變數特徵選擇

凍結估算器#

關於 sklearn.frozen 模組的範例。

使用 FrozenEstimator 的範例

使用 FrozenEstimator 的範例

高斯混合模型#

關於 sklearn.mixture 模組的範例。

變異數貝葉斯高斯混合的濃度先驗類型分析

變異數貝葉斯高斯混合的濃度先驗類型分析

高斯混合的密度估計

高斯混合的密度估計

GMM 初始化方法

GMM 初始化方法

GMM 共變異數

GMM 共變異數

高斯混合模型橢圓體

高斯混合模型橢圓體

高斯混合模型選擇

高斯混合模型選擇

高斯混合模型正弦曲線

高斯混合模型正弦曲線

用於機器學習的高斯過程#

關於 sklearn.gaussian_process 模組的範例。

高斯過程迴歸 (GPR) 估計資料雜訊水平的能力

高斯過程迴歸 (GPR) 估計資料雜訊水平的能力

核嶺和高斯過程迴歸的比較

核嶺和高斯過程迴歸的比較

使用高斯過程迴歸 (GPR) 預測莫納羅亞資料集上的二氧化碳水平

使用高斯過程迴歸 (GPR) 預測莫納羅亞資料集上的二氧化碳水平

高斯過程迴歸:基本入門範例

高斯過程迴歸:基本入門範例

iris 資料集上的高斯過程分類 (GPC)

iris 資料集上的高斯過程分類 (GPC)

離散資料結構上的高斯過程

離散資料結構上的高斯過程

XOR 資料集上高斯過程分類 (GPC) 的說明

XOR 資料集上高斯過程分類 (GPC) 的說明

不同核的先驗和後驗高斯過程的說明

不同核的先驗和後驗高斯過程的說明

高斯過程分類 (GPC) 的等機率線

高斯過程分類 (GPC) 的等機率線

使用高斯過程分類 (GPC) 的機率預測

使用高斯過程分類 (GPC) 的機率預測

廣義線性模型#

關於 sklearn.linear_model 模組的範例。

比較線性貝葉斯迴歸器

比較線性貝葉斯迴歸器

比較各種線上求解器

比較各種線上求解器

使用貝葉斯嶺迴歸進行曲線擬合

使用貝葉斯嶺迴歸進行曲線擬合

多項式和一對其餘邏輯迴歸的決策邊界

多項式和一對其餘邏輯迴歸的決策邊界

隨機梯度下降的早期停止

隨機梯度下降的早期停止

使用預先計算的格蘭矩陣和加權樣本擬合彈性網路

使用預先計算的格蘭矩陣和加權樣本擬合彈性網路

在具有強烈離群值的資料集上的 HuberRegressor 與嶺迴歸

在具有強烈離群值的資料集上的 HuberRegressor 與嶺迴歸

使用多任務 Lasso 進行聯合特徵選擇

使用多任務 Lasso 進行聯合特徵選擇

邏輯迴歸中的 L1 懲罰和稀疏性

邏輯迴歸中的 L1 懲罰和稀疏性

用於稀疏訊號的基於 L1 的模型

用於稀疏訊號的基於 L1 的模型

透過資訊準則進行 Lasso 模型選擇

透過資訊準則進行 Lasso 模型選擇

Lasso 模型選擇:AIC-BIC / 交叉驗證

Lasso 模型選擇:AIC-BIC / 交叉驗證

密集和稀疏資料上的 Lasso

密集和稀疏資料上的 Lasso

Lasso、Lasso-LARS 和彈性網路路徑

Lasso、Lasso-LARS 和彈性網路路徑

邏輯函數

邏輯函數

使用多項式邏輯 + L1 進行 MNIST 分類

使用多項式邏輯 + L1 進行 MNIST 分類

在 20newgroups 上的多類別稀疏邏輯迴歸

在 20newgroups 上的多類別稀疏邏輯迴歸

非負最小平方法

非負最小平方法

一類 SVM 與使用隨機梯度下降的一類 SVM

一類 SVM 與使用隨機梯度下降的一類 SVM

普通最小平方法範例

普通最小平方法範例

普通最小平方法和嶺迴歸變異數

普通最小平方法和嶺迴歸變異數

正交匹配追蹤

正交匹配追蹤

繪製嶺迴歸係數作為正規化的函數

繪製嶺迴歸係數作為正規化的函數

繪製 iris 資料集上的多類別 SGD

繪製 iris 資料集上的多類別 SGD

泊松迴歸和非常態損失

泊松迴歸和非常態損失

多項式和樣條內插

多項式和樣條內插

分位數迴歸

分位數迴歸

L1 邏輯迴歸的正規化路徑

L1 邏輯迴歸的正規化路徑

嶺迴歸係數作為 L2 正規化的函數

嶺迴歸係數作為 L2 正規化的函數

穩健線性估計器擬合

穩健線性估計器擬合

使用 RANSAC 的穩健線性模型估計

使用 RANSAC 的穩健線性模型估計

SGD:最大邊界分離超平面

SGD:最大邊界分離超平面

SGD:懲罰

SGD:懲罰

SGD:加權樣本

SGD:加權樣本

SGD:凸損失函數

SGD:凸損失函數

Theil-Sen 迴歸

Theil-Sen 迴歸

保險索賠的 Tweedie 迴歸

保險索賠的 Tweedie 迴歸

檢查#

關於 sklearn.inspection 模組的範例。

線性模型係數解釋中常見的陷阱

線性模型係數解釋中常見的陷阱

機器學習未能推斷因果效應

機器學習未能推斷因果效應

部分相依性和個別條件期望圖

部分相依性和個別條件期望圖

排列重要性與隨機森林特徵重要性 (MDI)

排列重要性與隨機森林特徵重要性 (MDI)

具有多重共線性或相關特徵的排列重要性

具有多重共線性或相關特徵的排列重要性

核函數近似#

關於 sklearn.kernel_approximation 模組的範例。

使用多項式核近似進行可擴展學習

使用多項式核近似進行可擴展學習

流形學習#

關於 sklearn.manifold 模組的範例。

流形學習方法比較

流形學習方法比較

在分割球體上的流形學習方法

在分割球體上的流形學習方法

手寫數字上的流形學習:局部線性嵌入、Isomap…

手寫數字上的流形學習:局部線性嵌入、Isomap...

多維縮放

多維縮放

瑞士卷和瑞士孔洞縮減

瑞士卷和瑞士孔洞縮減

t-SNE:各種困惑值對形狀的影響

t-SNE:各種困惑值對形狀的影響

雜項#

scikit-learn 的雜項和入門範例。

使用部分相依性的進階繪圖

使用部分相依性的進階繪圖

比較玩具資料集上離群值檢測的異常檢測演算法

比較玩具資料集上離群值檢測的異常檢測演算法

比較核嶺迴歸和 SVR

比較核嶺迴歸和 SVR

顯示管道

顯示管道

顯示估計器和複雜管道

顯示估計器和複雜管道

離群值檢測估計器的評估

離群值檢測估計器的評估

RBF 核的顯式特徵映射近似

RBF 核的顯式特徵映射近似

使用多輸出估計器的臉部補全

使用多輸出估計器的臉部補全

介紹 set_output API

介紹 set_output API

等張迴歸

等張迴歸

元資料路由

元資料路由

多標籤分類

多標籤分類

使用視覺化 API 的 ROC 曲線

使用視覺化 API 的 ROC 曲線

隨機投影嵌入的 Johnson-Lindenstrauss 界限

隨機投影嵌入的 Johnson-Lindenstrauss 界限

使用顯示物件的視覺化

使用顯示物件的視覺化

遺失值填補#

關於 sklearn.impute 模組的範例。

在建立估算器之前填補遺失值

在建立估算器之前填補遺失值

使用 IterativeImputer 的變體填補遺失值

使用 IterativeImputer 的變體填補遺失值

模型選擇#

關於 sklearn.model_selection 模組的範例。

平衡模型複雜度和交叉驗證分數

平衡模型複雜度和交叉驗證分數

使用類別似然比來衡量分類效能

使用類別似然比來衡量分類效能

比較用於超參數估計的隨機搜尋和網格搜尋

比較用於超參數估計的隨機搜尋和網格搜尋

網格搜尋與連續對分法的比較

網格搜尋與連續對分法的比較

混淆矩陣

混淆矩陣

使用交叉驗證的網格搜尋的自訂重擬合策略

使用交叉驗證的網格搜尋的自訂重擬合策略

在 cross_val_score 和 GridSearchCV 上示範多指標評估

在 cross_val_score 和 GridSearchCV 上示範多指標評估

偵測錯誤權衡 (DET) 曲線

偵測錯誤權衡 (DET) 曲線

模型正規化對訓練和測試誤差的影響

模型正規化對訓練和測試誤差的影響

多類別接收者操作特徵 (ROC)

多類別接收者操作特徵 (ROC)

巢狀與非巢狀交叉驗證

巢狀與非巢狀交叉驗證

繪製交叉驗證預測

繪製交叉驗證預測

繪製學習曲線並檢查模型的可擴展性

繪製學習曲線並檢查模型的可擴展性

事後調整決策函數的截止點

事後調整決策函數的截止點

針對成本敏感學習事後調整決策閾值

針對成本敏感學習事後調整決策閾值

精確率-召回率

精確率-召回率

使用交叉驗證的接收者操作特徵 (ROC)

使用交叉驗證的接收者操作特徵 (ROC)

文字特徵提取和評估的範例管線

文字特徵提取和評估的範例管線

使用網格搜尋統計比較模型

使用網格搜尋統計比較模型

連續對分迭代

連續對分迭代

使用排列測試分類分數的顯著性

使用排列測試分類分數的顯著性

擬合不足與過度擬合

擬合不足與過度擬合

在 scikit-learn 中視覺化交叉驗證行為

在 scikit-learn 中視覺化交叉驗證行為

多類別方法#

關於 sklearn.multiclass 模組的範例。

多類別訓練元估算器概述

多類別訓練元估算器概述

多輸出方法#

關於 sklearn.multioutput 模組的範例。

使用分類器鏈的多標籤分類

使用分類器鏈的多標籤分類

最近鄰居#

關於 sklearn.neighbors 模組的範例。

TSNE 中的近似最近鄰居

TSNE 中的近似最近鄰居

快取最近鄰居

快取最近鄰居

比較具有和不具有鄰域成分分析的最近鄰居

比較具有和不具有鄰域成分分析的最近鄰居

使用鄰域成分分析的降維

使用鄰域成分分析的降維

物種分佈的核密度估計

物種分佈的核密度估計

核密度估計

核密度估計

最近質心分類

最近質心分類

最近鄰居分類

最近鄰居分類

最近鄰居迴歸

最近鄰居迴歸

鄰域成分分析說明

鄰域成分分析說明

使用局部離群因子 (LOF) 的新奇檢測

使用局部離群因子 (LOF) 的新奇檢測

使用局部離群因子 (LOF) 的離群值檢測

使用局部離群因子 (LOF) 的離群值檢測

簡單的一維核密度估計

簡單的一維核密度估計

神經網路#

關於 sklearn.neural_network 模組的範例。

比較 MLPClassifier 的隨機學習策略

比較 MLPClassifier 的隨機學習策略

用於數字分類的受限玻爾茲曼機特徵

用於數字分類的受限玻爾茲曼機特徵

多層感知器中不同的正規化

多層感知器中不同的正規化

MNIST 上 MLP 權重的視覺化

MNIST 上 MLP 權重的視覺化

管線和複合估算器#

說明如何從其他估算器組合轉換器和管線的範例。請參閱使用者指南

具有異質資料來源的 Column Transformer

具有異質資料來源的 Column Transformer

具有混合類型的 Column Transformer

具有混合類型的 Column Transformer

串聯多個特徵提取方法

串聯多個特徵提取方法

轉換迴歸模型中目標的影響

轉換迴歸模型中目標的影響

管線化:串聯 PCA 和邏輯迴歸

管線化:串聯 PCA 和邏輯迴歸

使用管線和 GridSearchCV 選擇降維

使用管線和 GridSearchCV 選擇降維

預處理#

關於 sklearn.preprocessing 模組的範例。

比較不同的縮放器對具有離群值的資料的影響

比較不同的縮放器對具有離群值的資料的影響

比較目標編碼器和其他編碼器

比較目標編碼器和其他編碼器

示範 KBinsDiscretizer 的不同策略

示範 KBinsDiscretizer 的不同策略

特徵離散化

特徵離散化

特徵縮放的重要性

特徵縮放的重要性

將資料對應到常態分佈

將資料對應到常態分佈

目標編碼器的內部交叉擬合

目標編碼器的內部交叉擬合

使用 KBinsDiscretizer 離散化連續特徵

使用 KBinsDiscretizer 離散化連續特徵

半監督式分類#

關於 sklearn.semi_supervised 模組的範例。

半監督分類器與 Iris 資料集上的 SVM 的決策邊界

半監督分類器與 Iris 資料集上的 SVM 的決策邊界

不同自我訓練閾值的影響

不同自我訓練閾值的影響

標籤傳播數字主動學習

標籤傳播數字主動學習

標籤傳播數字:示範效能

標籤傳播數字:示範效能

標籤傳播學習複雜結構

標籤傳播學習複雜結構

文字資料集上的半監督分類

文字資料集上的半監督分類

支持向量機#

關於 sklearn.svm 模組的範例。

具有非線性核函數 (RBF) 的單類 SVM

具有非線性核函數 (RBF) 的單類 SVM

繪製不同 SVM 核函數的分類邊界

繪製不同 SVM 核函數的分類邊界

繪製 iris 資料集中不同的 SVM 分類器

繪製 iris 資料集中不同的 SVM 分類器

繪製 LinearSVC 中的支援向量

繪製 LinearSVC 中的支援向量

RBF SVM 參數

RBF SVM 參數

SVM 邊界範例

SVM 邊界範例

SVM 平手打破範例

SVM 平手打破範例

具有自訂核函數的 SVM

具有自訂核函數的 SVM

SVM-Anova:具有單變數特徵選擇的 SVM

SVM-Anova:具有單變數特徵選擇的 SVM

SVM:最大邊界分離超平面

SVM:最大邊界分離超平面

SVM:不平衡類別的分離超平面

SVM:不平衡類別的分離超平面

SVM:加權樣本

SVM:加權樣本

縮放 SVC 的正規化參數

縮放 SVC 的正規化參數

使用線性和非線性核函數的支援向量迴歸 (SVR)

使用線性和非線性核函數的支援向量迴歸 (SVR)

教學練習#

教學的練習

糖尿病資料集上的交叉驗證練習

糖尿病資料集上的交叉驗證練習

數字分類練習

數字分類練習

SVM 練習

SVM 練習

處理文字文件#

關於 sklearn.feature_extraction.text 模組的範例。

使用稀疏特徵對文字文件進行分類

使用稀疏特徵對文字文件進行分類

使用 k-means 對文字文件進行分群

使用 k-means 對文字文件進行分群

FeatureHasher 和 DictVectorizer 比較

FeatureHasher 和 DictVectorizer 比較

由 Sphinx-Gallery 產生的範例展示