深入探究sklearnsvr

一、簡介

支持向量回歸 (Support Vector Regression, SVR) 是一種回歸分析的方法,和 SVM 相關。SVR 同樣採用 SVM 中的技巧,使用核函數,最終目的是求解支持向量。與 SVM 不同的是,SVR 對每個樣本都有一個不同的目標函數和不同的損失函數。

在 Scikit-learn 中,SVR 實現就是 sklearn.svm.SVR。Scikit-learn 中也提供了 Decision Tree、Gradient Boosting、Random Forest、K-Neighbor 等一系列回歸分析的方法,而 SVM 是其中一種,它是在高維空間指定樣本之間的最大間隔用分離超平面來實現分類的。

二、使用

使用 SVR 進行回歸分析需要採取下面幾個步驟:

1. 導入數據

import pandas as pd

dataset=pd.read_csv("sample.csv")
X=dataset.iloc[:,:-1].values
y=dataset.iloc[:,-1].values

2. 訓練模型

from sklearn.svm import SVR
from sklearn.pipeline import make_pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import mean_squared_error 

model=make_pipeline(StandardScaler(),SVR(C=1.0, epsilon=0.2))
model.fit(X,y)

y_pred=model.predict(X)
error=mean_squared_error(y,y_pred)
print('MSE: %.3f' % error)

3. 評估模型

評估模型時,可以使用 Scikit-learn 中的 scoring 函數,比如 r2_score、mean_squared_error、mean_absolute_error 等。

from sklearn.metrics import r2_score

r_square=r2_score(y, y_pred)
print('R-Square: %.3f' % r_square)

三、參數

1. C 參數

C 參數是 SVM 優化問題的懲罰因子,它決定了訓練誤差的容忍度。

當 C 越小,模型會容忍更大的誤差,但泛化誤差可能會受到影響;當 C 越大,模型會儘可能去減少訓練誤差,但泛化誤差也可能會變大。

model=SVR(C=1.0)

2. kernel 參數

kernel 參數是用於指定用於執行非線形特徵映射的內核類型。Scikit-learn 中提供了四種內核類型:

  • linear:線性核函數
  • poly:多項式核函數
  • rbf:徑向基核函數
  • sigmoid:Sigmoid 核函數
model=SVR(kernel='rbf')

四、優化

1. Grid Search

Grid Search 是一種超參數優化演算法,它會嘗試用不同的超參數組合來訓練模型,並選擇使評分最佳的超參數組合。在 Scikit-learn 中,可以使用 GridSearchCV 讓算機自動搜索超參數組合。

from sklearn.model_selection import GridSearchCV 

param_grid={'C':[1,10],'kernel':['rbf','linear']}

grid=GridSearchCV(SVR(),param_grid,refit=True,verbose=3)

grid.fit(X,y)

print(grid.best_params_)
print(grid.best_estimator_)

2. Random Search

Random Search 和 Grid Search 類似,不過它是隨機選擇超參數,並在一定次數里選取最優超參數。在 Scikit-learn 中,可以使用 RandomizedSearchCV 讓算機自動搜索超參數組合。

from sklearn.model_selection import RandomizedSearchCV

param_dist={'C':[0.1,0.5,1],'kernel':['rbf','linear']}

rand=RandomizedSearchCV(SVR(),param_distributions=param_dist,n_iter=10,refit=True,verbose=3)

rand.fit(X,y)

print(rand.best_params_)
print(rand.best_estimator_)

五、總結

本文介紹了 SVM 的回歸分析方法 SVR,並詳細介紹了 SVR 的使用、參數和優化。在實際應用中,我們可以選擇不同的核函數、適度調整參數,來得到更好的回歸分析結果。

原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/293657.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
小藍的頭像小藍
上一篇 2024-12-26 13:14
下一篇 2024-12-26 13:14

相關推薦

  • 深入解析Vue3 defineExpose

    Vue 3在開發過程中引入了新的API `defineExpose`。在以前的版本中,我們經常使用 `$attrs` 和` $listeners` 實現父組件與子組件之間的通信,但…

    編程 2025-04-25
  • 深入理解byte轉int

    一、位元組與比特 在討論byte轉int之前,我們需要了解位元組和比特的概念。位元組是計算機存儲單位的一種,通常表示8個比特(bit),即1位元組=8比特。比特是計算機中最小的數據單位,是…

    編程 2025-04-25
  • 深入理解Flutter StreamBuilder

    一、什麼是Flutter StreamBuilder? Flutter StreamBuilder是Flutter框架中的一個內置小部件,它可以監測數據流(Stream)中數據的變…

    編程 2025-04-25
  • 深入探討OpenCV版本

    OpenCV是一個用於計算機視覺應用程序的開源庫。它是由英特爾公司創建的,現已由Willow Garage管理。OpenCV旨在提供一個易於使用的計算機視覺和機器學習基礎架構,以實…

    編程 2025-04-25
  • 深入了解scala-maven-plugin

    一、簡介 Scala-maven-plugin 是一個創造和管理 Scala 項目的maven插件,它可以自動生成基本項目結構、依賴配置、Scala文件等。使用它可以使我們專註於代…

    編程 2025-04-25
  • 深入了解LaTeX的腳註(latexfootnote)

    一、基本介紹 LaTeX作為一種排版軟體,具有各種各樣的功能,其中腳註(footnote)是一個十分重要的功能之一。在LaTeX中,腳註是用命令latexfootnote來實現的。…

    編程 2025-04-25
  • 深入探討馮諾依曼原理

    一、原理概述 馮諾依曼原理,又稱「存儲程序控制原理」,是指計算機的程序和數據都存儲在同一個存儲器中,並且通過一個統一的匯流排來傳輸數據。這個原理的提出,是計算機科學發展中的重大進展,…

    編程 2025-04-25
  • 深入剖析MapStruct未生成實現類問題

    一、MapStruct簡介 MapStruct是一個Java bean映射器,它通過註解和代碼生成來在Java bean之間轉換成本類代碼,實現類型安全,簡單而不失靈活。 作為一個…

    編程 2025-04-25
  • 深入理解Python字元串r

    一、r字元串的基本概念 r字元串(raw字元串)是指在Python中,以字母r為前綴的字元串。r字元串中的反斜杠(\)不會被轉義,而是被當作普通字元處理,這使得r字元串可以非常方便…

    編程 2025-04-25
  • 深入了解Python包

    一、包的概念 Python中一個程序就是一個模塊,而一個模塊可以引入另一個模塊,這樣就形成了包。包就是有多個模塊組成的一個大模塊,也可以看做是一個文件夾。包可以有效地組織代碼和數據…

    編程 2025-04-25

發表回復

登錄後才能評論