深度學習正則化

一、為什麼需要正則化

當神經網路的層數和參數量增加時,模型容易出現過擬合的情況,即在訓練集上的準確率高於在測試集上的準確率,導致模型泛化性能不佳。因此,需要使用正則化方法來緩解過擬合問題。

常見的正則化方法包括L1正則化和L2正則化。

import tensorflow as tf 
from tensorflow.keras import layers 

model = tf.keras.Sequential([
    # 添加一層L1正則化,指定正則化強度為0.01
    layers.Dense(64, activation='relu', kernel_regularizer=tf.keras.regularizers.l1(0.01)),
    layers.Dense(64, activation='relu'),
    layers.Dense(10, activation='softmax')
])

二、L1正則化

L1正則化通過在損失函數中添加權重的絕對值之和來懲罰模型的複雜度,可以使得一部分權重變為0,從而實現特徵選擇的效果。

L1正則化的數學公式為:

Loss = 原始損失函數 + λ * ∥w∥1

其中λ為正則化強度,w為權重參數,∥w∥1為權重的L1範數。

import tensorflow as tf 
from tensorflow.keras import layers 

model = tf.keras.Sequential([
    # 添加一層L1正則化,指定正則化強度為0.01
    layers.Dense(64, activation='relu', kernel_regularizer=tf.keras.regularizers.l1(0.01)),
    layers.Dense(64, activation='relu'),
    layers.Dense(10, activation='softmax')
])

三、L2正則化

L2正則化通過在損失函數中添加權重的平方和來懲罰模型的複雜度,可以使得所有權重都趨向於較小的值。

L2正則化的數學公式為:

Loss = 原始損失函數 + λ/2 * ∥w∥22

其中λ為正則化強度,w為權重參數,∥w∥2為權重的L2範數。

import tensorflow as tf 
from tensorflow.keras import layers 

model = tf.keras.Sequential([
    # 添加一層L2正則化,指定正則化強度為0.01
    layers.Dense(64, activation='relu', kernel_regularizer=tf.keras.regularizers.l2(0.01)),
    layers.Dense(64, activation='relu'),
    layers.Dense(10, activation='softmax')
])

四、Dropout正則化

Dropout正則化是一種隨機失活的方法,通過在訓練過程中隨機丟棄一部分神經元的輸出來降低複雜度,從而緩解過擬合問題。

Dropout正則化的數學公式為:

Output = Dropout(Input, keep_prob)

其中Input為輸入張量,keep_prob為保留概率,即留下的神經元輸出的概率。

import tensorflow as tf 
from tensorflow.keras import layers 

model = tf.keras.Sequential([
    layers.Dense(64, activation='relu'),
    # 添加一層Dropout正則化,指定保留概率為0.5
    layers.Dropout(0.5),
    layers.Dense(64, activation='relu'),
    layers.Dropout(0.5),
    layers.Dense(10, activation='softmax')
])

五、BatchNormalization正則化

BatchNormalization正則化是通過對每一批樣本的輸出進行歸一化來緩解過擬合問題,可以使得模型對輸入數據的變化更加魯棒,縮短訓練時間。

BatchNormalization正則化的數學公式為:

Output = γ * (Input – μ) / σ + β

其中Input為輸入張量,μ和σ為當前批次所有樣本的均值和標準差,γ和β為可訓練的縮放係數和平移係數。

import tensorflow as tf 
from tensorflow.keras import layers 

model = tf.keras.Sequential([
    layers.Dense(64, activation='relu'),
    # 添加一層BatchNormalization正則化
    layers.BatchNormalization(),
    layers.Dense(64, activation='relu'),
    layers.BatchNormalization(),
    layers.Dense(10, activation='softmax')
])

原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/160926.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
小藍的頭像小藍
上一篇 2024-11-21 01:16
下一篇 2024-11-21 01:16

相關推薦

  • 深度查詢宴會的文化起源

    深度查詢宴會,是指通過對一種文化或主題的深度挖掘和探究,為參與者提供一次全方位的、深度體驗式的文化品嘗和交流活動。本文將從多個方面探討深度查詢宴會的文化起源。 一、宴會文化的起源 …

    編程 2025-04-29
  • Python下載深度解析

    Python作為一種強大的編程語言,在各種應用場景中都得到了廣泛的應用。Python的安裝和下載是使用Python的第一步,對這個過程的深入了解和掌握能夠為使用Python提供更加…

    編程 2025-04-28
  • Python遞歸深度用法介紹

    Python中的遞歸函數是一個函數調用自身的過程。在進行遞歸調用時,程序需要為每個函數調用開闢一定的內存空間,這就是遞歸深度的概念。本文將從多個方面對Python遞歸深度進行詳細闡…

    編程 2025-04-27
  • Spring Boot本地類和Jar包類載入順序深度剖析

    本文將從多個方面對Spring Boot本地類和Jar包類載入順序做詳細的闡述,並給出相應的代碼示例。 一、類載入機制概述 在介紹Spring Boot本地類和Jar包類載入順序之…

    編程 2025-04-27
  • 深度解析Unity InjectFix

    Unity InjectFix是一個非常強大的工具,可以用於在Unity中修復各種類型的程序中的問題。 一、安裝和使用Unity InjectFix 您可以通過Unity Asse…

    編程 2025-04-27
  • 深度剖析:cmd pip不是內部或外部命令

    一、問題背景 使用Python開發時,我們經常需要使用pip安裝第三方庫來實現項目需求。然而,在執行pip install命令時,有時會遇到「pip不是內部或外部命令」的錯誤提示,…

    編程 2025-04-25
  • 動手學深度學習 PyTorch

    一、基本介紹 深度學習是對人工神經網路的發展與應用。在人工神經網路中,神經元通過接受輸入來生成輸出。深度學習通常使用很多層神經元來構建模型,這樣可以處理更加複雜的問題。PyTorc…

    編程 2025-04-25
  • 深度解析Ant Design中Table組件的使用

    一、Antd表格兼容 Antd是一個基於React的UI框架,Table組件是其重要的組成部分之一。該組件可在各種瀏覽器和設備上進行良好的兼容。同時,它還提供了多個版本的Antd框…

    編程 2025-04-25
  • 深度解析MySQL查看當前時間的用法

    MySQL是目前最流行的關係型資料庫管理系統之一,其提供了多種方法用於查看當前時間。在本篇文章中,我們將從多個方面來介紹MySQL查看當前時間的用法。 一、當前時間的獲取方法 My…

    編程 2025-04-24
  • 深入了解sed正則匹配

    一、sed 命令是什麼 sed(stream editor)是一種非互動式流式文本編輯器。它用於對文本進行編輯、轉換。sed 主要用於自動編輯。即通過腳本或命令直接對文本進行編輯。…

    編程 2025-04-24

發表回復

登錄後才能評論