一、激活函數
激活函數是神經網絡中非常重要的一部分,常見的激活函數有sigmoid、ReLU、tanh等。對於MLPClassifier,我們可以通過設置激活函數來提高模型的準確度。
sigmoid函數的定義為$f(x)=\frac{1}{1+e^{-x}}$,它的輸出值在0到1之間,可以被用來進行二分類問題。但是,它的缺點是容易飽和,導致梯度消失的問題。因此,在大多數情況下,ReLU和tanh是更好的選擇。
ReLU函數的定義為$f(x)=max(0,x)$,它可以使得一些神經元處於非活躍狀態,減少了過擬合的問題。tanh函數的定義為$f(x)=tanh(x)$,它的輸出值在-1到1之間,可以被用來處理多分類問題。
from sklearn.neural_network import MLPClassifier
model = MLPClassifier(activation='relu')
二、網絡結構
網絡結構也是決定模型準確度的重要因素。MLPClassifier有兩個重要的參數:hidden_layer_sizes和max_iter。hidden_layer_sizes定義了隱藏層的結構,通常來說3到5層是一個合理的選擇。max_iter定義了模型的最大迭代次數,當模型達到最大迭代次數卻沒有收斂時,訓練過程會終止。
在進行調參時,我們可以採用網格搜索(GridSearchCV)和隨機搜索(RandomizedSearchCV)的方法。網格搜索會枚舉所有可能的參數組合,因此搜索速度比較慢。而隨機搜索則是隨機生成一些參數組合進行訓練,速度相對於網格搜索來說更快一些。
from sklearn.model_selection import GridSearchCV, RandomizedSearchCV
param_grid = {
'hidden_layer_sizes': [(50,50),(100,100),(200,200)],
'max_iter': [500,1000,1500]
}
grid_search = GridSearchCV(model,param_grid=param_grid,cv=3,n_jobs=-1)
grid_search.fit(X_train,y_train)
print("Best parameters found: ",grid_search.best_params_)
print("Best score: ",grid_search.best_score_)
random_search = RandomizedSearchCV(model,param_distributions=param_grid,cv=3,n_jobs=-1,n_iter=10)
random_search.fit(X_train,y_train)
print("Best parameters found: ",random_search.best_params_)
print("Best score: ",random_search.best_score_)
三、正則化
正則化是防止過擬合的重要手段。MLPClassifier支持兩種正則化方法:L1和L2。L1會讓權重矩陣具有稀疏性,而L2會讓權重矩陣比較平滑。在進行調參時,我們可以使用交叉驗證進行模型評估,並且根據評估結果選擇最優的正則化方法。
from sklearn.model_selection import cross_val_score
from sklearn.linear_model import LogisticRegression
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
pipe = Pipeline([
('scaler',StandardScaler()),
('mlp',MLPClassifier())
])
param_grid = [
{
'mlp__alpha':[0.0001,0.001,0.01,0.1,1],
'mlp__activation':['relu','tanh'],
'mlp__solver':['lbfgs','sgd','adam']
},
{
'mlp__alpha':[0.0001,0.001,0.01,0.1,1],
'mlp__activation':['relu','tanh'],
'mlp__solver':['lbfgs','sgd','adam'],
'mlp__hidden_layer_sizes':[(50,50),(100,100),(200,200)]
},
{
'mlp__alpha':[0.0001,0.001,0.01,0.1,1],
'mlp__activation':['relu','tanh'],
'mlp__solver':['lbfgs','sgd','adam'],
'mlp__hidden_layer_sizes':[(50,50,50),(100,100,100),(200,200,200)]
}
]
grid_search = GridSearchCV(pipe,param_grid=param_grid,cv=3,n_jobs=-1)
grid_search.fit(X_train,y_train)
print("Best parameters found: ",grid_search.best_params_)
print("Best score: ",grid_search.best_score_)
四、mini-batch優化
在進行訓練過程中,我們可以選擇將訓練數據分成若干個小批量(mini-batch)進行訓練,以減少內存的使用,並且提高訓練速度。在Mini-batch優化中,我們可以通過調整batch_size來控制每次訓練所使用的樣本數量。常用的選項是64、128、256、512等。
model = MLPClassifier(batch_size=64)
五、總結
本文對於MLPClassifier的調參方法進行了詳細的闡述。通過設置激活函數、網絡結構、正則化和mini-batch等參數,我們可以生成最優的模型,提高預測準確度。
原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-hant/n/304734.html