Scikit-learn是Python中一個流行的機器學習庫,包含有各種各樣的機器學習算法和數據集。本文將介紹Scikit-learn中的鳶尾花數據集,展示如何使用該數據集進行分類任務。
一、鳶尾花數據集介紹
鳶尾花數據集是一個非常經典的分類問題,使用該數據集廣泛地用於機器學習教育和研究。該數據集包含有3種不同種類的鳶尾花:Setosa、Versicolour和Virginica,分別對應3個不同的品種。每個樣本有4個特徵:花萼(sepal)長度、花萼寬度、花瓣(petal)長度和花瓣寬度,共計150個樣本。
在Scikit-learn中,可以方便地加載該數據集:
from sklearn.datasets import load_iris data = load_iris() X = data.data y = data.target
其中`X`是一個(n_samples, n_features)的數組,代表着所有樣本的特徵,`y`是一個(n_samples,)的一維數組,代表着每個樣本所屬的類別。
二、數據可視化
我們首先使用Matplotlib包對數據集進行可視化。由於數據集有4個特徵,我們無法將其在2D的平面直觀地展示。我們可以使用散點圖(scatter plot)來展示其中的兩個特徵。
import matplotlib.pyplot as plt fig, ax = plt.subplots() colors = ['blue', 'red', 'green'] for i in range(len(colors)): x = X[y == i][:, 0] y_geq_0 = X[y != i][:, 1] ax.scatter(x, y_geq_0, c=colors[i]) ax.set_xlabel('Sepal Length') ax.set_ylabel('Sepal Width') ax.set_title('Scatter plot of Iris dataset')
上述代碼將長度和寬度作為橫坐標和縱坐標,展示了3種鳶尾花品種的關係。結果如下圖所示。
我們可以發現,在這兩個特徵的空間中,Setosa品種分布得比較開,而Versicolour和Virginica品種更加相似。這說明了使用花萼的長度和寬度,我們能夠區分不同品種之間的一些差異。
三、分類器的訓練和測試
我們可以使用Scikit-learn中的各種各樣的機器學習算法作為分類器,對鳶尾花數據集進行分類任務。在此,我們使用邏輯回歸(Logistic Regression)算法進行分類任務,這是一個非常常用的二分類算法。
我們首先將數據集劃分為訓練集和測試集:
from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
上述代碼中,使用了`train_test_split`函數將數據集劃分成3:7比例的訓練集和測試集。
接着我們定義並訓練一個邏輯回歸分類器:
from sklearn.linear_model import LogisticRegression clf = LogisticRegression(random_state=0).fit(X_train, y_train)
然後使用該分類器對測試集進行預測:
y_pred = clf.predict(X_test)
最後,我們可以使用Scikit-learn提供的`accuracy_score`函數計算分類器的準確率:
from sklearn.metrics import accuracy_score accuracy = accuracy_score(y_test, y_pred)
經過訓練和測試,我們得到了邏輯回歸分類器在測試集上的準確率為93.3%。這表明使用這個簡單的分類器,我們能夠有效地分類鳶尾花數據集。
四、特徵選擇與降維
對於許多機器學習任務來說,特徵選擇和降維是非常重要的步驟。在鳶尾花數據集中,我們最初使用了4個特徵進行分類任務。但是這4個特徵中,一些特徵可能是冗餘的,或者對於分類任務並沒有太大的貢獻。
在Scikit-learn中,我們可以使用各種各樣的特徵選擇和降維方法。此處舉例使用PCA(principal component analysis)方法對特徵進行降維。PCA是一種線性變換技術,可以將高維的特徵空間映射到較低維的空間。在此處,我們將4維的鳶尾花數據集降至2維進行可視化。
from sklearn.decomposition import PCA pca = PCA(n_components=2) X_pca = pca.fit_transform(X) fig, ax = plt.subplots() colors = ['blue', 'red', 'green'] for i in range(len(colors)): x = X_pca[y == i][:, 0] y_geq_0 = X_pca[y == i][:, 1] ax.scatter(x, y_geq_0, c=colors[i]) ax.set_xlabel('PC1') ax.set_ylabel('PC2') ax.set_title('PCA Scatter plot of Iris dataset')
上述代碼中,我們使用`PCA`函數將4維鳶尾花數據降至2維,然後使用Matplotlib包將2維數據進行散點圖可視化,結果如下圖所示。
可以看到,經過2維PCA降維,我們在2維空間中仍然能夠區分不同品種的鳶尾花。這表明,對於鳶尾花數據集來說,僅使用這兩個PCA維度可能足夠對樣本進行分類。但是請注意,PCA維度並不是在所有數據集上都有類似的效果,所以在實際應用中需要較好的特徵工程技能。
五、總結
本文展示了如何使用Scikit-learn加載和可視化鳶尾花數據集,使用邏輯回歸等算法對其進行分類任務,以及如何使用特徵選擇和降維技術對數據集進行預處理。Scikit-learn提供了豐富的功能,使得機器學習任務更加簡單和高效。
原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-hant/n/244574.html