深入探究EmbeddingLayer

一、EmbeddingLayer簡介

EmbeddingLayer是深度學習中廣泛使用的一種網路層,主要用來將離散的數據轉換成連續的低維向量。在自然語言處理、推薦系統等領域中,經常需要將文本、商品等離散的ID映射到低維向量,以便進行後續的處理。

EmbeddingLayer就是用來完成這個映射的層,它可以通過學習把每個離散的ID都映射成固定長度的低維向量,從而實現連續、高維的數據表示。

二、EmbeddingLayer實現

下面我們通過一個簡單的例子來實現EmbeddingLayer。

import tensorflow as tf

# 設定數據
vocab_size = 10000
input_dim = 16
input_tensor = tf.random.uniform((32, 10), maxval=vocab_size, dtype=tf.int32)

# 建立模型
model = tf.keras.Sequential()
model.add(tf.keras.layers.Embedding(vocab_size, input_dim))
model.add(tf.keras.layers.Flatten())
model.summary()

以上代碼中我們首先設定了數據,vocab_size代表詞典大小,input_dim代表輸出的向量維度。然後我們建立了一個Sequential模型,添加了一個EmbeddingLayer和一個Flatten層用來將輸出的向量展開成一維向量。

最後我們使用model.summary()來列印模型的結構:

Model: "sequential"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
embedding (Embedding)        (None, None, 16)          160000    
_________________________________________________________________
flatten (Flatten)            (None, None)              0         
=================================================================
Total params: 160,000
Trainable params: 160,000
Non-trainable params: 0
_________________________________________________________________

可以看到,EmbeddingLayer將每個離散的ID映射成了一個長度為16的低維向量。

三、EmbeddingLayer參數

EmbeddingLayer的參數包括輸入的數據大小(vocab_size)、輸出向量的維度(input_dim)等,還包括input_length參數,用來指定輸入數據的長度,不過如果輸入數據的長度是不固定的,也可以把這個參數設置為None。

在使用EmbeddingLayer時,我們還需要注意一些參數的含義:

  • input_dim:輸出向量的維度
  • input_length:輸入數據的長度,如果數據的長度是不固定的,可以將這個參數設置為None
  • mask_zero:是否把輸入數據中的0作為掩碼,這個參數一般用在RNN等模型中,用來忽略輸入數據中的padding

下面是一個包含這些參數的示例代碼:

import tensorflow as tf

# 設定數據
vocab_size = 10000
input_dim = 16
input_length = 10
input_tensor = tf.random.uniform((32, input_length), maxval=vocab_size, dtype=tf.int32)

# 建立模型
model = tf.keras.Sequential()
model.add(tf.keras.layers.Embedding(vocab_size, input_dim, input_length=input_length, mask_zero=True))
model.add(tf.keras.layers.Flatten())
model.summary()

四、EmbeddingLayer在NLP中的應用

EmbeddingLayer在自然語言處理領域中得到了廣泛的應用,主要用來將文本數據映射成低維向量,以便後續的處理。

在文本分類、情感分析等任務中,我們可以使用EmbeddingLayer將文本中的每個單詞映射成固定長度的向量,然後把這些向量輸入到卷積神經網路或者循環神經網路中,來完成具體的任務。

下面是一個簡單的文本分類模型示例代碼:

import tensorflow as tf
from tensorflow.keras.preprocessing.text import Tokenizer
from tensorflow.keras.preprocessing.sequence import pad_sequences

# 設定參數
vocab_size = 10000
embedding_dim = 16
max_length = 120
trunc_type = 'post'
padding_type = 'post'
oov_tok = ''
training_size = 20000

# 載入數據
imdb = tf.keras.datasets.imdb
(train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=vocab_size)

# 對數據進行預處理
tokenizer = Tokenizer(num_words=vocab_size, oov_token=oov_tok)
tokenizer.fit_on_texts(train_data)
word_index = tokenizer.word_index
train_sequences = tokenizer.texts_to_sequences(train_data)
train_padded = pad_sequences(train_sequences, maxlen=max_length, padding=padding_type, truncating=trunc_type)

# 建立模型
model = tf.keras.Sequential([
    tf.keras.layers.Embedding(vocab_size, embedding_dim, input_length=max_length),
    tf.keras.layers.Flatten(),
    tf.keras.layers.Dense(6, activation='relu'),
    tf.keras.layers.Dense(1, activation='sigmoid')
])
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
model.summary()

# 訓練模型
history = model.fit(train_padded, train_labels, epochs=10, validation_split=0.1, verbose=2)

以上代碼中,我們載入了IMDB數據集,使用Tokenizer和pad_sequences對數據進行處理,然後建立了包含EmbeddingLayer的模型並訓練模型。

五、EmbeddingLayer在推薦系統中的應用

除了在自然語言處理中的應用外,EmbeddingLayer在推薦系統中也有著廣泛的應用。在推薦系統中,我們需要將用戶和物品進行離散化的編碼,然後把它們映射成低維向量,這個過程中也可以使用EmbeddingLayer。

下面是一個示例代碼:

import tensorflow as tf

# 設定參數
num_users = 1000
num_items = 10000
embedding_dim = 32

# 建立模型
user_id_input = tf.keras.layers.Input(shape=(1,), dtype='int32', name='user_id')
item_id_input = tf.keras.layers.Input(shape=(1,), dtype='int32', name='item_id')

user_embedding_layer = tf.keras.layers.Embedding(num_users, embedding_dim)
item_embedding_layer = tf.keras.layers.Embedding(num_items, embedding_dim)

user_embedding = user_embedding_layer(user_id_input)
item_embedding = item_embedding_layer(item_id_input)

user_vecs = tf.keras.layers.Flatten()(user_embedding)
item_vecs = tf.keras.layers.Flatten()(item_embedding)

output_layer = tf.keras.layers.dot([user_vecs, item_vecs], axes=1, normalize=False)

model = tf.keras.Model(inputs=[user_id_input, item_id_input], outputs=output_layer)
model.compile(loss='mse', optimizer='adam', metrics=['mae'])
model.summary()

以上代碼中,我們建立了一個簡單的推薦系統模型,其中用戶和物品都使用了EmbeddingLayer將其離散化的ID映射成了低維向量。

六、EmbeddingLayer的優化

儘管EmbeddingLayer在深度學習中得到了廣泛的應用,但是在實際應用中,EmbeddingLayer的計算效率往往較低,尤其當輸入數據集比較大時,計算時間會相對較長。

為了提高EmbeddingLayer的計算效率,一些研究人員延伸了EmbeddingLayer,並提出了一些優化方法,如Hierarchical Softmax、Negative Sampling等方法。

以下是一個使用Negative Sampling優化EmbeddingLayer的代碼示例:

import tensorflow as tf

# 設定參數
vocab_size = 10000
embedding_dim = 16
num_ns = 4

# 建立模型
inputs = tf.keras.layers.Input(shape=(1,), dtype=tf.int32)
embedding = tf.keras.layers.Embedding(vocab_size, embedding_dim, input_length=1, name="embedding")(inputs)
reshape = tf.keras.layers.Reshape(target_shape=(embedding_dim,))(embedding)
nce_weights = tf.Variable(
    tf.random.uniform([vocab_size, embedding_dim], -1.0, 1.0),
    name="nce_weights")
nce_biases = tf.Variable(tf.zeros([vocab_size]), name="nce_biases")
outputs = tf.keras.layers.Lambda(lambda x: tf.compat.v1.nn.nce_loss(weights=nce_weights,
                                                      biases=nce_biases,
                                                      labels=x[1],
                                                      inputs=x[0],
                                                      num_sampled=num_ns,
                                                      num_classes=vocab_size))([reshape, inputs])
model = tf.keras.Model(inputs, outputs)
model.compile(optimizer='adam', loss=tf.keras.losses.CategoricalCrossentropy(from_logits=True))
model.summary()

以上代碼中,我們使用了負採樣的方法來優化EmbeddingLayer的計算效率。

七、總結

EmbeddingLayer是深度學習中使用較為廣泛的網路層之一,它可以將離散的ID映射成低維向量,用來完成文本分類、推薦系統等任務。在實際應用中,我們需要根據情況選擇合適的參數,並進行各種優化方法以提高計算效率。

原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/151943.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
小藍的頭像小藍
上一篇 2024-11-12 00:53
下一篇 2024-11-12 00:53

相關推薦

  • 深入解析Vue3 defineExpose

    Vue 3在開發過程中引入了新的API `defineExpose`。在以前的版本中,我們經常使用 `$attrs` 和` $listeners` 實現父組件與子組件之間的通信,但…

    編程 2025-04-25
  • 深入理解byte轉int

    一、位元組與比特 在討論byte轉int之前,我們需要了解位元組和比特的概念。位元組是計算機存儲單位的一種,通常表示8個比特(bit),即1位元組=8比特。比特是計算機中最小的數據單位,是…

    編程 2025-04-25
  • 深入理解Flutter StreamBuilder

    一、什麼是Flutter StreamBuilder? Flutter StreamBuilder是Flutter框架中的一個內置小部件,它可以監測數據流(Stream)中數據的變…

    編程 2025-04-25
  • 深入探討OpenCV版本

    OpenCV是一個用於計算機視覺應用程序的開源庫。它是由英特爾公司創建的,現已由Willow Garage管理。OpenCV旨在提供一個易於使用的計算機視覺和機器學習基礎架構,以實…

    編程 2025-04-25
  • 深入了解scala-maven-plugin

    一、簡介 Scala-maven-plugin 是一個創造和管理 Scala 項目的maven插件,它可以自動生成基本項目結構、依賴配置、Scala文件等。使用它可以使我們專註於代…

    編程 2025-04-25
  • 深入了解LaTeX的腳註(latexfootnote)

    一、基本介紹 LaTeX作為一種排版軟體,具有各種各樣的功能,其中腳註(footnote)是一個十分重要的功能之一。在LaTeX中,腳註是用命令latexfootnote來實現的。…

    編程 2025-04-25
  • 深入了解Python包

    一、包的概念 Python中一個程序就是一個模塊,而一個模塊可以引入另一個模塊,這樣就形成了包。包就是有多個模塊組成的一個大模塊,也可以看做是一個文件夾。包可以有效地組織代碼和數據…

    編程 2025-04-25
  • 深入剖析MapStruct未生成實現類問題

    一、MapStruct簡介 MapStruct是一個Java bean映射器,它通過註解和代碼生成來在Java bean之間轉換成本類代碼,實現類型安全,簡單而不失靈活。 作為一個…

    編程 2025-04-25
  • 深入探討馮諾依曼原理

    一、原理概述 馮諾依曼原理,又稱「存儲程序控制原理」,是指計算機的程序和數據都存儲在同一個存儲器中,並且通過一個統一的匯流排來傳輸數據。這個原理的提出,是計算機科學發展中的重大進展,…

    編程 2025-04-25
  • 深入理解Python字元串r

    一、r字元串的基本概念 r字元串(raw字元串)是指在Python中,以字母r為前綴的字元串。r字元串中的反斜杠(\)不會被轉義,而是被當作普通字元處理,這使得r字元串可以非常方便…

    編程 2025-04-25

發表回復

登錄後才能評論