一、xgboost簡介
XGBoost 是一種在梯度提升決策樹 (Gradient Boosting Decision Tree,簡稱 GBDT)基礎上演進而來的機器學習模型,是 Boosting Family 演算法中的一種。GBDT 是一種迭代的決策樹演算法,通過加上多個弱分類器(決策樹),不斷調整目標函數的取值為殘差,進而擬合出一個比較強大的分類模型。
XGBoost 是 GBDT 的一個實現,相比其他 GBDT 實現,XGBoost 在分裂節點時會比傳統 GBDT 基於 Greedy 演算法採用貪心策略更優,具有對缺失值的自適應處理能力,並且在正則化方面有很多的演算法和技巧。
對於分類問題,XGBoost 使用 Softmax 函數進行預測;對於回歸問題,XGBoost 則採用數據擬合即可。在實際應用過程中,XGBoost 在文本分類、推薦系統、搜索排序、天氣預測、生物信息學等眾多應用領域得到了廣泛應用。
二、安裝sklearnxgbos
安裝sklearnxgboost,可以使用pip進行安裝。命令:pip install xgboost。除了使用pip安裝,也可以使用源碼進行安裝。源代碼可以在 XGBoost 官方網站下載。
三、數據預處理
在使用XGBoost進行訓練之前需要對數據進行預處理。首先,將數據分成訓練集、測試集,使用 sklearn.model_selection 下的 train_test_split 函數進行,代碼如下:
from sklearn.model_selection import train_test_split xtrain, xtest, ytrain, ytest = train_test_split(X, Y, test_size=0.3, random_state=42)
其中,X 是所有自變數的數據,Y 是因變數的數據。
接下來,需要對訓練集進行正態分布處理。這裡使用 sklearn.preprocessing 下的 StandardScaler 進行預處理,代碼如下:
from sklearn.preprocessing import StandardScaler sc = StandardScaler() xtrain = sc.fit_transform(xtrain) xtest = sc.transform(xtest)
四、模型訓練
使用XGBoost進行模型訓練,代碼如下:
import xgboost as xgb dtrain = xgb.DMatrix(xtrain, label=ytrain) dtest = xgb.DMatrix(xtest, label=ytest) param = {'max_depth': 5, 'eta': 0.1, 'objective': 'multi:softmax', 'num_class': 3} num_round = 100 bst = xgb.train(param, dtrain, num_round) preds = bst.predict(dtest)
在這個例子中,我們設置計算樹的最大深度為 5,使用 softmax 進行多分類問題預測,共有 3 個類別,學習率為 0.1,訓練輪次為 100 輪。在模型訓練完成後,使用 bst.predict 進行預測,得到了測試集的預測結果。
五、模型評估
在模型訓練完成後,需要對模型進行評估,可以使用 sklearn.metrics 下的 accuracy_score、precision_score、recall_score 和 f1_score 等函數進行評估,代碼如下:
from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score print('Accuracy: ', accuracy_score(ytest, preds)) print('Precision: ', precision_score(ytest, preds, average='weighted')) print('Recall: ', recall_score(ytest, preds, average='weighted')) print('F1-Score: ', f1_score(ytest, preds, average='weighted'))
六、模型調參
在使用XGBoost進行模型訓練時,可以通過調整模型的參數來提高模型的性能。其中,最常見的參數包括:
1、max_depth:決策樹的最大深度。
2、learning_rate:學習率,也稱為步長。
3、n_estimators:決策樹的數量。
4、subsample:在構建每個決策樹時,使用的子樣本佔總樣本的比例。
……
調參過程並不是一次調參解決所有問題,而是一個不斷迭代調參的過程。可以使用 sklearn.model_selection 下的 GridSearchCV 或 RandomizedSearchCV 進行自動調參。代碼如下:
from sklearn.model_selection import GridSearchCV, RandomizedSearchCV params = {'max_depth': [3, 5, 7], 'learning_rate': [0.05, 0.1, 0.2], 'n_estimators': [50, 100, 150], 'subsample': [0.3, 0.5, 0.7]} xgb_clf = xgb.XGBClassifier() clf = RandomizedSearchCV(xgb_clf, params, cv=5, n_jobs=-1) clf.fit(xtrain, ytrain) print('Best Params: ', clf.best_params_) print('Best Score: ', clf.best_score_)
在這裡,我們設定了一組樹的最大深度、學習率、決策樹數量和子樣本比例參數,使用隨機搜索進行一次自動化的調參過程。
七、小結
通過本篇文章的介紹,我們可以發現,使用 XGBoost 進行模型訓練時,需要進行數據預處理、模型訓練、模型評估與調參等步驟。在這個過程中,我們了解了 XGBoost 的基本原理,以及如何通過 XGBoost 優化模型。
原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/150890.html