主成分分析(PCA): 是一種代數技術,用於將一組可能相關變數的觀測值轉換為一組線性不相關變數的值。
選擇所有主成分來描述變數中的大部分可用方差,並且所有主成分彼此正交。在主成分的所有集合中,第一主成分總是具有最大方差。
主成分分析的不同用途:
- 主成分分析可用於發現數據中各種變數之間的相互關係。
- 主成分分析可用於解釋和可視化數據集。
- 主成分分析還可以用於可視化種群之間的遺傳距離和聯繫。
- 隨著變數數量的減少,主成分分析也使分析變得簡單。
主成分分析通常在正方形對稱矩陣上執行,這可以是正方形和叉積矩陣或相關矩陣或協方差矩陣的純和。如果個體差異較大,則使用相關矩陣。
主成分分析的目標是什麼?
常設仲裁院的基本目標如下:
- 主成分分析是一種不依賴的方法,可用於將屬性空間從集合的大量變數減少到更少的因子。
- 這是一種降維技術,但無法保證該維是否可解釋。
- 在主成分分析中,主要工作是從一個更大的集合中選擇變數的子集,這取決於哪些原始變數與本金金額具有最高的相關性。
主軸法:主成分分析搜索變數的線性組合,從變數中提取最大方差。一旦主成分分析完成該過程,它將前進到另一個線性組合,這將解釋剩餘方差的最大比率,這將導致集合的正交因子。這種方法用於分析集合變數的總方差。
本徵向量:是矩陣相乘後保持平行的非零向量。假設『V』是維數為 R * R 的矩陣 K 的維數為 R 的特徵向量,如果 KV 和 V 平行。那麼用戶必須求解 KV = PV,其中 V 和 P 對於求解本徵向量和特徵值都是未知的。
特徵值:在 PCA 中又稱為「特徵根」。這用於測量集合中所有變數的方差,由該因子報告。特徵值的比例是關於變數的因素的描述重要性的比例。如果因子低,那麼它對變數描述的補貼就少。
現在,我們將用 Python 討論主成分分析。
以下是在 Python 中使用主成分分析的步驟:
在本教程中,我們將使用 wine.csv 數據集。
步驟 1: 我們將導入庫。
import numpy as nmp
import matplotlib.pyplot as mpltl
import pandas as pnd
第二步:我們將導入數據集(wine.csv)
首先,我們將導入數據集,並將其分發到 X 和 Y 組件中進行數據分析。
DS = pnd.read_csv('Wine.csv')
# Now, we will distribute the dataset into two components "X" and "Y"
X = DS.iloc[: , 0:13].values
Y = DS.iloc[: , 13].values
第三步:在這一步中,我們將數據集拆分為訓練集和測試集。
from sklearn.model_selection import train_test_split as tts
X_train, X_test, Y_train, Y_test = tts(X, Y, test_size = 0.2, random_state = 0)
第 4 步:現在,我們將進行特徵縮放。
在這一步中,我們將對訓練和測試集進行重新處理,例如,擬合標準尺度。
from sklearn.preprocessing import StandardScaler as SS
SC = SS()
X_train = SC.fit_transform(X_train)
X_test = SC.transform(X_test)
步驟 5: 然後,應用主成分分析功能
我們將把主成分分析函數應用到訓練集和測試集中進行分析。
from sklearn.decomposition import PCA
PCa = PCA (n_components = 1)
X_train = PCa.fit_transform(X_train)
X_test = PCa.transform(X_test)
explained_variance = PCa.explained_variance_ratio_
步驟 6: 現在,我們將為訓練集擬合邏輯回歸
from sklearn.linear_model import LogisticRegression as LR
classifier_1 = LR (random_state = 0)
classifier_1.fit(X_train, Y_train)
輸出:
LogisticRegression(random_state=0)
第七步:這裡我們來預測測試集結果:
Y_pred = classifier_1.predict(X_test)
第八步:我們將創建混淆矩陣。
from sklearn.metrics import confusion_matrix as CM
c_m = CM (Y_test, Y_pred)
步驟 9: 然後,預測訓練集的結果。
from matplotlib.colors import ListedColormap as LCM
X_set, Y_set = X_train, Y_train
X_1, X_2 = nmp.meshgrid(nmp.arange(start = X_set[:, 0].min() - 1,
stop = X_set[: , 0].max() + 1, step = 0.01),
nmp.arange(start = X_set[: , 1].min() - 1,
stop = X_set[: , 1].max() + 1, step = 0.01))
mpltl.contourf(X_1, X_2, classifier_1.predict(nmp.array([X_1.ravel(),
X_2.ravel()]).T).reshape(X_1.shape), alpha = 0.75,
cmap = LCM (('yellow', 'grey', 'green')))
mpltl.xlim (X_1.min(), X_1.max())
mpltl.ylim (X_2.min(), X_2.max())
for s, t in enumerate(nmp.unique(Y_set)):
mpltl.scatter(X_set[Y_set == t, 0], X_set[Y_set == t, 1],
c = LCM (('red', 'green', 'blue'))(s), label = t)
mpltl.title('Logistic Regression for Training set: ')
mpltl.xlabel ('PC_1') # for X_label
mpltl.ylabel ('PC_2') # for Y_label
mpltl.legend() # for showing legend
# show scatter plot
mpltl.show()
輸出:
步驟 10: 最後,我們將可視化測試集的結果。
from matplotlib.colors import ListedColormap as LCM
X_set, Y_set = X_test, Y_test
X_1, X_2 = nmp.meshgrid(nmp.arange(start = X_set[: , 0].min() - 1,
stop = X_set[: , 0].max() + 1, step = 0.01),
nmp.arange(start = X_set[: , 1].min() - 1,
stop = X_set[: , 1].max() + 1, step = 0.01))
mpltl.contourf(X_1, X_2, classifier_1.predict(nmp.array([X_1.ravel(),
X_2.ravel()]).T).reshape(X_1.shape), alpha = 0.75,
cmap = LCM(('pink', 'grey', 'aquamarine')))
mpltl.xlim(X_1.min(), X_1.max())
mpltl.ylim(X_2.min(), X_2.max())
for s, t in enumerate(nmp.unique(Y_set)):
mpltl.scatter(X_set[Y_set == t, 0], X_set[Y_set == t, 1],
c = LCM(('red', 'green', 'blue'))(s), label = t)
# title for scatter plot
mpltl.title('Logistic Regression for Testing set')
mpltl.xlabel ('PC_1') # for X_label
mpltl.ylabel ('PC_2') # for Y_label
mpltl.legend()
# show scatter plot
mpltl.show()
輸出:
結論
在本教程中,我們學習了 Python 的主成分分析、它的用途和對象,以及如何在數據集上使用它來分析數據的測試和訓練集。
原創文章,作者:Y0F2M,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/129521.html