GoogleNet詳解

一、概述

GoogleNet是2014年Google發佈的深度神經網絡,在ImageNet圖像識別任務中表現優異。它是Inception系列模型的第一代,以其高效的參數和計算量成為當時最先進的模型。

GoogleNet並不是一般CNN的平鋪式層次,而是通過並行的Inception模塊十分複雜地組成。Inception模塊通過採用1×1、3×3、5×5的卷積核,從不同感受野大小的採樣中得到不同網絡層的特徵表達,通過concatenate將特徵圖並串起來,從而獲得更好的特徵表達能力。

二、Inception模塊

Inception模塊最核心的思想是並行計算。在不同大小感受野下通過不同大小的卷積核得到的特徵圖,然後通過concatenate並表達出完整的特徵圖,從而獲得更高維的特徵信息。

示例代碼如下:

from keras.layers import Conv2D, MaxPooling2D, concatenate

def InceptionModule(x, nb_filter):
    branch1x1 = Conv2D(nb_filter, (1, 1), padding='same', activation='relu')(x)

    branch3x3 = Conv2D(nb_filter, (1, 1), padding='same', activation='relu')(x)
    branch3x3 = Conv2D(nb_filter, (3, 3), padding='same', activation='relu')(branch3x3)

    branch5x5 = Conv2D(nb_filter, (1, 1), padding='same', activation='relu')(x)
    branch5x5 = Conv2D(nb_filter, (5, 5), padding='same', activation='relu')(branch5x5)

    branch_MaxPooling = MaxPooling2D(pool_size=(3, 3), strides=(1, 1), padding='same')(x)
    branch_MaxPooling = Conv2D(nb_filter, (1, 1), padding='same', activation='relu')(branch_MaxPooling)

    branches = [branch1x1, branch3x3, branch5x5, branch_MaxPooling]
    out = concatenate(branches, axis=-1)
    return out

三、完整模型架構

GoogleNet共22層,前15層採用常規的卷積、池化和歸一化層。其後的分類層採用了全局平均池化、dropout和softmax,使得提取的特徵圖更具魯棒性。完整模型代碼如下:

from keras.layers import Input, Dense, Dropout, Flatten, concatenate
from keras.layers.convolutional import Conv2D, MaxPooling2D, AveragePooling2D
from keras.layers.normalization import BatchNormalization
from keras.models import Model

def InceptionModule(x, nb_filter):
    branch1x1 = Conv2D(nb_filter, (1, 1), padding='same', activation='relu')(x)

    branch3x3 = Conv2D(nb_filter, (1, 1), padding='same', activation='relu')(x)
    branch3x3 = Conv2D(nb_filter, (3, 3), padding='same', activation='relu')(branch3x3)

    branch5x5 = Conv2D(nb_filter, (1, 1), padding='same', activation='relu')(x)
    branch5x5 = Conv2D(nb_filter, (5, 5), padding='same', activation='relu')(branch5x5)

    branch_MaxPooling = MaxPooling2D(pool_size=(3, 3), strides=(1, 1), padding='same')(x)
    branch_MaxPooling = Conv2D(nb_filter, (1, 1), padding='same', activation='relu')(branch_MaxPooling)

    branches = [branch1x1, branch3x3, branch5x5, branch_MaxPooling]
    out = concatenate(branches, axis=-1)
    return out

inputs = Input(shape=(224, 224, 3))

x = Conv2D(64, (7, 7), strides=(2, 2), padding='same', activation='relu')(inputs)
x = MaxPooling2D(pool_size=(3, 3), strides=(2, 2), padding='same')(x)

x = Conv2D(64, (1, 1), strides=(1, 1), padding='same', activation='relu')(x)
x = Conv2D(192, (3, 3), strides=(1, 1), padding='same', activation='relu')(x)
x = MaxPooling2D(pool_size=(3, 3), strides=(2, 2), padding='same')(x)

x = InceptionModule(x, 64)
x = InceptionModule(x, 120)
x = MaxPooling2D(pool_size=(3, 3), strides=(2, 2), padding='same')(x)

x = InceptionModule(x, 128)
x = InceptionModule(x, 128)
x = InceptionModule(x, 128)
x = InceptionModule(x, 132)
x = InceptionModule(x, 208)
x = MaxPooling2D(pool_size=(3, 3), strides=(2, 2), padding='same')(x)

x = InceptionModule(x, 208)
x = InceptionModule(x, 256)
x = AveragePooling2D(pool_size=(7, 7), strides=(7, 7), padding='same')(x)

x = Dropout(0.4)(x)
x = Flatten()(x)
outputs = Dense(1000, activation='softmax')(x)

model = Model(inputs=inputs, outputs=outputs)

四、轉移學習

在實際應用中,考慮到數據量和算力的問題,可通過利用已有訓練好的模型進行微調,即轉移學習。將已有模型的前N層凍結,只對模型後面幾層進行微調,加速模型訓練過程,提高模型準確率。代碼如下:

from keras.applications.inception_v3 import InceptionV3
from keras.layers import Dense, GlobalAveragePooling2D
from keras.models import Model
from keras import backend as K

K.clear_session()

base_model = InceptionV3(weights='imagenet', include_top=False, input_shape=(299, 299, 3))
x = base_model.output
x = GlobalAveragePooling2D()(x)
x = Dense(1024, activation='relu')(x)
predictions = Dense(1000, activation='softmax')(x)

# 凍結前面249層,只訓練後面的層
for layer in base_model.layers[:249]:
    layer.trainable = False

model = Model(inputs=base_model.input, outputs=predictions)

五、優化和預處理

在訓練GoogleNet時,常用的優化器為SGD(隨機梯度下降),使得模型參數更好的收斂。在預處理方面,ImageNet中的圖像分為ILSVRC2014-train和ILSVRC2014-val兩個數據集。在訓練時,對於ILSVRC2014-train數據集中的圖像,進行數據增強,如左右翻轉、隨機裁剪等預處理方式,以增強模型的魯棒性和泛化能力。在預測時,對於圖像進行中心化和大小正則化處理。

六、總結

GoogleNet以其高效的模型架構和並行計算Inception模塊的特點,被廣泛應用在圖像識別領域。在實際應用中,通過微調已有的訓練好的模型,可以有效提高模型的準確率和加速訓練過程。

原創文章,作者:WDVPD,如若轉載,請註明出處:https://www.506064.com/zh-hk/n/361573.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
WDVPD的頭像WDVPD
上一篇 2025-02-25 18:17
下一篇 2025-02-25 18:17

相關推薦

  • Linux sync詳解

    一、sync概述 sync是Linux中一個非常重要的命令,它可以將文件系統緩存中的內容,強制寫入磁盤中。在執行sync之前,所有的文件系統更新將不會立即寫入磁盤,而是先緩存在內存…

    編程 2025-04-25
  • 神經網絡代碼詳解

    神經網絡作為一種人工智能技術,被廣泛應用於語音識別、圖像識別、自然語言處理等領域。而神經網絡的模型編寫,離不開代碼。本文將從多個方面詳細闡述神經網絡模型編寫的代碼技術。 一、神經網…

    編程 2025-04-25
  • Linux修改文件名命令詳解

    在Linux系統中,修改文件名是一個很常見的操作。Linux提供了多種方式來修改文件名,這篇文章將介紹Linux修改文件名的詳細操作。 一、mv命令 mv命令是Linux下的常用命…

    編程 2025-04-25
  • Python輸入輸出詳解

    一、文件讀寫 Python中文件的讀寫操作是必不可少的基本技能之一。讀寫文件分別使用open()函數中的’r’和’w’參數,讀取文件…

    編程 2025-04-25
  • nginx與apache應用開發詳解

    一、概述 nginx和apache都是常見的web服務器。nginx是一個高性能的反向代理web服務器,將負載均衡和緩存集成在了一起,可以動靜分離。apache是一個可擴展的web…

    編程 2025-04-25
  • MPU6050工作原理詳解

    一、什麼是MPU6050 MPU6050是一種六軸慣性傳感器,能夠同時測量加速度和角速度。它由三個傳感器組成:一個三軸加速度計和一個三軸陀螺儀。這個組合提供了非常精細的姿態解算,其…

    編程 2025-04-25
  • 詳解eclipse設置

    一、安裝與基礎設置 1、下載eclipse並進行安裝。 2、打開eclipse,選擇對應的工作空間路徑。 File -> Switch Workspace -> [選擇…

    編程 2025-04-25
  • C語言貪吃蛇詳解

    一、數據結構和算法 C語言貪吃蛇主要運用了以下數據結構和算法: 1. 鏈表 typedef struct body { int x; int y; struct body *nex…

    編程 2025-04-25
  • Python安裝OS庫詳解

    一、OS簡介 OS庫是Python標準庫的一部分,它提供了跨平台的操作系統功能,使得Python可以進行文件操作、進程管理、環境變量讀取等系統級操作。 OS庫中包含了大量的文件和目…

    編程 2025-04-25
  • Java BigDecimal 精度詳解

    一、基礎概念 Java BigDecimal 是一個用於高精度計算的類。普通的 double 或 float 類型只能精確表示有限的數字,而對於需要高精度計算的場景,BigDeci…

    編程 2025-04-25

發表回復

登錄後才能評論