一、EmbeddingLayer簡介
EmbeddingLayer是深度學習中廣泛使用的一種網絡層,主要用來將離散的數據轉換成連續的低維向量。在自然語言處理、推薦系統等領域中,經常需要將文本、商品等離散的ID映射到低維向量,以便進行後續的處理。
EmbeddingLayer就是用來完成這個映射的層,它可以通過學習把每個離散的ID都映射成固定長度的低維向量,從而實現連續、高維的數據表示。
二、EmbeddingLayer實現
下面我們通過一個簡單的例子來實現EmbeddingLayer。
import tensorflow as tf # 設定數據 vocab_size = 10000 input_dim = 16 input_tensor = tf.random.uniform((32, 10), maxval=vocab_size, dtype=tf.int32) # 建立模型 model = tf.keras.Sequential() model.add(tf.keras.layers.Embedding(vocab_size, input_dim)) model.add(tf.keras.layers.Flatten()) model.summary()
以上代碼中我們首先設定了數據,vocab_size代表詞典大小,input_dim代表輸出的向量維度。然後我們建立了一個Sequential模型,添加了一個EmbeddingLayer和一個Flatten層用來將輸出的向量展開成一維向量。
最後我們使用model.summary()來打印模型的結構:
Model: "sequential" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= embedding (Embedding) (None, None, 16) 160000 _________________________________________________________________ flatten (Flatten) (None, None) 0 ================================================================= Total params: 160,000 Trainable params: 160,000 Non-trainable params: 0 _________________________________________________________________
可以看到,EmbeddingLayer將每個離散的ID映射成了一個長度為16的低維向量。
三、EmbeddingLayer參數
EmbeddingLayer的參數包括輸入的數據大小(vocab_size)、輸出向量的維度(input_dim)等,還包括input_length參數,用來指定輸入數據的長度,不過如果輸入數據的長度是不固定的,也可以把這個參數設置為None。
在使用EmbeddingLayer時,我們還需要注意一些參數的含義:
- input_dim:輸出向量的維度
- input_length:輸入數據的長度,如果數據的長度是不固定的,可以將這個參數設置為None
- mask_zero:是否把輸入數據中的0作為掩碼,這個參數一般用在RNN等模型中,用來忽略輸入數據中的padding
下面是一個包含這些參數的示例代碼:
import tensorflow as tf # 設定數據 vocab_size = 10000 input_dim = 16 input_length = 10 input_tensor = tf.random.uniform((32, input_length), maxval=vocab_size, dtype=tf.int32) # 建立模型 model = tf.keras.Sequential() model.add(tf.keras.layers.Embedding(vocab_size, input_dim, input_length=input_length, mask_zero=True)) model.add(tf.keras.layers.Flatten()) model.summary()
四、EmbeddingLayer在NLP中的應用
EmbeddingLayer在自然語言處理領域中得到了廣泛的應用,主要用來將文本數據映射成低維向量,以便後續的處理。
在文本分類、情感分析等任務中,我們可以使用EmbeddingLayer將文本中的每個單詞映射成固定長度的向量,然後把這些向量輸入到卷積神經網絡或者循環神經網絡中,來完成具體的任務。
下面是一個簡單的文本分類模型示例代碼:
import tensorflow as tf from tensorflow.keras.preprocessing.text import Tokenizer from tensorflow.keras.preprocessing.sequence import pad_sequences # 設定參數 vocab_size = 10000 embedding_dim = 16 max_length = 120 trunc_type = 'post' padding_type = 'post' oov_tok = '' training_size = 20000 # 加載數據 imdb = tf.keras.datasets.imdb (train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=vocab_size) # 對數據進行預處理 tokenizer = Tokenizer(num_words=vocab_size, oov_token=oov_tok) tokenizer.fit_on_texts(train_data) word_index = tokenizer.word_index train_sequences = tokenizer.texts_to_sequences(train_data) train_padded = pad_sequences(train_sequences, maxlen=max_length, padding=padding_type, truncating=trunc_type) # 建立模型 model = tf.keras.Sequential([ tf.keras.layers.Embedding(vocab_size, embedding_dim, input_length=max_length), tf.keras.layers.Flatten(), tf.keras.layers.Dense(6, activation='relu'), tf.keras.layers.Dense(1, activation='sigmoid') ]) model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) model.summary() # 訓練模型 history = model.fit(train_padded, train_labels, epochs=10, validation_split=0.1, verbose=2)
以上代碼中,我們加載了IMDB數據集,使用Tokenizer和pad_sequences對數據進行處理,然後建立了包含EmbeddingLayer的模型並訓練模型。
五、EmbeddingLayer在推薦系統中的應用
除了在自然語言處理中的應用外,EmbeddingLayer在推薦系統中也有着廣泛的應用。在推薦系統中,我們需要將用戶和物品進行離散化的編碼,然後把它們映射成低維向量,這個過程中也可以使用EmbeddingLayer。
下面是一個示例代碼:
import tensorflow as tf # 設定參數 num_users = 1000 num_items = 10000 embedding_dim = 32 # 建立模型 user_id_input = tf.keras.layers.Input(shape=(1,), dtype='int32', name='user_id') item_id_input = tf.keras.layers.Input(shape=(1,), dtype='int32', name='item_id') user_embedding_layer = tf.keras.layers.Embedding(num_users, embedding_dim) item_embedding_layer = tf.keras.layers.Embedding(num_items, embedding_dim) user_embedding = user_embedding_layer(user_id_input) item_embedding = item_embedding_layer(item_id_input) user_vecs = tf.keras.layers.Flatten()(user_embedding) item_vecs = tf.keras.layers.Flatten()(item_embedding) output_layer = tf.keras.layers.dot([user_vecs, item_vecs], axes=1, normalize=False) model = tf.keras.Model(inputs=[user_id_input, item_id_input], outputs=output_layer) model.compile(loss='mse', optimizer='adam', metrics=['mae']) model.summary()
以上代碼中,我們建立了一個簡單的推薦系統模型,其中用戶和物品都使用了EmbeddingLayer將其離散化的ID映射成了低維向量。
六、EmbeddingLayer的優化
儘管EmbeddingLayer在深度學習中得到了廣泛的應用,但是在實際應用中,EmbeddingLayer的計算效率往往較低,尤其當輸入數據集比較大時,計算時間會相對較長。
為了提高EmbeddingLayer的計算效率,一些研究人員延伸了EmbeddingLayer,並提出了一些優化方法,如Hierarchical Softmax、Negative Sampling等方法。
以下是一個使用Negative Sampling優化EmbeddingLayer的代碼示例:
import tensorflow as tf # 設定參數 vocab_size = 10000 embedding_dim = 16 num_ns = 4 # 建立模型 inputs = tf.keras.layers.Input(shape=(1,), dtype=tf.int32) embedding = tf.keras.layers.Embedding(vocab_size, embedding_dim, input_length=1, name="embedding")(inputs) reshape = tf.keras.layers.Reshape(target_shape=(embedding_dim,))(embedding) nce_weights = tf.Variable( tf.random.uniform([vocab_size, embedding_dim], -1.0, 1.0), name="nce_weights") nce_biases = tf.Variable(tf.zeros([vocab_size]), name="nce_biases") outputs = tf.keras.layers.Lambda(lambda x: tf.compat.v1.nn.nce_loss(weights=nce_weights, biases=nce_biases, labels=x[1], inputs=x[0], num_sampled=num_ns, num_classes=vocab_size))([reshape, inputs]) model = tf.keras.Model(inputs, outputs) model.compile(optimizer='adam', loss=tf.keras.losses.CategoricalCrossentropy(from_logits=True)) model.summary()
以上代碼中,我們使用了負採樣的方法來優化EmbeddingLayer的計算效率。
七、總結
EmbeddingLayer是深度學習中使用較為廣泛的網絡層之一,它可以將離散的ID映射成低維向量,用來完成文本分類、推薦系統等任務。在實際應用中,我們需要根據情況選擇合適的參數,並進行各種優化方法以提高計算效率。
原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-hant/n/151943.html