本文將從多個方面詳細闡述Python實現一元線性回歸模型的代碼。如果你對線性回歸模型有一些了解,對Python語言也有所掌握,那麼本文將對你有所幫助。在開始介紹具體代碼前,讓我們先來理解一下線性回歸模型的基本概念。
一、線性回歸模型基本原理
線性回歸是一種利用一個或多個自變量和因變量之間的線性關係進行預測的方法。在一元線性回歸中,僅利用單個自變量進行預測。
一元線性回歸模型可以用一條直線來表示,即:$y=\beta_{0}+\beta_{1}x+\varepsilon$,其中$y$為因變量,$x$為自變量,$\beta_{0}$和$\beta_{1}$分別為截距和斜率,$\varepsilon$為誤差項。
線性回歸的目標是找到最佳的模型參數$\beta_{0}$和$\beta_{1}$,使其能夠最精確地擬合給定的數據。擬合過程通常使用最小二乘法,即求使殘差平方和最小的模型參數。殘差為預測值和真實值的差,殘差平方和為所有殘差平方的和。
二、數據預處理
在Python中實現一元線性回歸模型之前,需要進行數據的預處理。預處理過程包括數據的讀取、數據清洗、數據切分和數據標準化。
數據讀取可以使用Python的pandas庫中的read_csv()函數,讀取csv格式的數據文件。讀取後我們可以對數據進行簡單的統計分析,包括數據的描述統計學、數據缺失值的處理和異常值的處理等。
import pandas as pd
data = pd.read_csv('data.csv')
print(data.describe()) # 輸出數據的描述統計學
數據清洗是指對數據中存在的空值、錯誤值、重複值或冗餘值進行刪除或替換等操作。這個過程需要結合具體數據的特點進行處理。
數據切分是把原始數據隨機劃分為訓練集和測試集,通常訓練集和測試集的比例為7:3或8:2。訓練集用於訓練模型參數,測試集用於評估模型的預測能力。在Python中可以使用sklearn庫中的train_test_split()函數進行劃分。
from sklearn.model_selection import train_test_split
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3, random_state=0) # 劃分數據集
數據標準化是指對數據進行歸一化處理,使得數據在整個數據集中的數值大小範圍都相同,並且數據的均值為0,標準差為1。數據標準化可以使用sklearn庫中的StandardScaler()類進行處理。
from sklearn.preprocessing import StandardScaler
sc = StandardScaler()
x_train = sc.fit_transform(x_train)
x_test = sc.transform(x_test)
三、構建模型
在數據預處理之後,接下來需要構建一元線性回歸模型。
在Python中,可以使用sklearn庫中的線性回歸類LinearRegression()來構建模型。在構建模型之前,需要將自變量和因變量的數據集傳入LinearRegression()中,並且調用fit()方法來訓練模型。
from sklearn.linear_model import LinearRegression
model = LinearRegression()
model.fit(x_train, y_train)
四、模型評估
模型評估通常包括兩個方面:模型精度和模型穩定性。
模型精度可以通過均方誤差(MSE)和決定係數(R Squared)進行評估。均方誤差是指模型預測值和真實值之間誤差的平方和除以樣本數量,值越小說明模型擬合效果越好。決定係數表示因變量變異中可以由自變量解釋的部分所佔的比例,值越接近1說明模型擬合效果越好。
from sklearn.metrics import mean_squared_error, r2_score
y_pred = model.predict(x_test)
mse = mean_squared_error(y_test, y_pred)
r2 = r2_score(y_test, y_pred)
print('均方誤差:', mse)
print('決定係數:', r2)
模型穩定性可以通過交叉驗證進行評估。交叉驗證是指將原始數據隨機劃分為若干個子集,將其中一部分子集用於訓練模型,另外一部分子集用於測試模型。這個過程會重複進行多次,並且每次使用不同的子集劃分方式。最終計算所有模型驗證結果的平均值,得到模型的穩定性評估結果。
from sklearn.model_selection import cross_val_score
scores = cross_val_score(model, x, y, cv=10)
print('交叉驗證得分:', scores.mean())
五、模型可視化
利用可視化工具可以更直觀地查看模型的擬合效果。在Python中可以使用matplotlib庫進行可視化。
繪製散點圖和回歸直線:
import matplotlib.pyplot as plt
plt.scatter(x_test, y_test, color='red')
plt.plot(x_test, model.predict(x_test), color='blue')
plt.title('線性回歸')
plt.xlabel('自變量')
plt.ylabel('因變量')
plt.show()
繪製殘差圖:
residuals = y_test - y_pred
plt.scatter(y_pred, residuals, color='blue')
plt.title('殘差圖')
plt.xlabel('預測值')
plt.ylabel('殘差')
plt.axhline(y=0, color='red')
plt.show()
六、完整代碼
# 導入相關庫
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error, r2_score
from sklearn.model_selection import cross_val_score
import matplotlib.pyplot as plt
# 讀取數據
data = pd.read_csv('data.csv')
# 劃分自變量和因變量
x = data.iloc[:, :-1].values
y = data.iloc[:, -1].values
# 劃分數據集
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3, random_state=0)
# 數據標準化
sc = StandardScaler()
x_train = sc.fit_transform(x_train)
x_test = sc.transform(x_test)
# 構建模型
model = LinearRegression()
model.fit(x_train, y_train)
# 模型評估
y_pred = model.predict(x_test)
mse = mean_squared_error(y_test, y_pred)
r2 = r2_score(y_test, y_pred)
print('均方誤差:', mse)
print('決定係數:', r2)
# 交叉驗證評估模型穩定性
scores = cross_val_score(model, x, y, cv=10)
print('交叉驗證得分:', scores.mean())
# 繪製散點圖和回歸直線
plt.scatter(x_test, y_test, color='red')
plt.plot(x_test, model.predict(x_test), color='blue')
plt.title('線性回歸')
plt.xlabel('自變量')
plt.ylabel('因變量')
plt.show()
# 繪製殘差圖
residuals = y_test - y_pred
plt.scatter(y_pred, residuals, color='blue')
plt.title('殘差圖')
plt.xlabel('預測值')
plt.ylabel('殘差')
plt.axhline(y=0, color='red')
plt.show()
原創文章,作者:HSQDD,如若轉載,請註明出處:https://www.506064.com/zh-hk/n/375154.html