一、EmbeddingLayer简介
EmbeddingLayer是深度学习中广泛使用的一种网络层,主要用来将离散的数据转换成连续的低维向量。在自然语言处理、推荐系统等领域中,经常需要将文本、商品等离散的ID映射到低维向量,以便进行后续的处理。
EmbeddingLayer就是用来完成这个映射的层,它可以通过学习把每个离散的ID都映射成固定长度的低维向量,从而实现连续、高维的数据表示。
二、EmbeddingLayer实现
下面我们通过一个简单的例子来实现EmbeddingLayer。
import tensorflow as tf # 设定数据 vocab_size = 10000 input_dim = 16 input_tensor = tf.random.uniform((32, 10), maxval=vocab_size, dtype=tf.int32) # 建立模型 model = tf.keras.Sequential() model.add(tf.keras.layers.Embedding(vocab_size, input_dim)) model.add(tf.keras.layers.Flatten()) model.summary()
以上代码中我们首先设定了数据,vocab_size代表词典大小,input_dim代表输出的向量维度。然后我们建立了一个Sequential模型,添加了一个EmbeddingLayer和一个Flatten层用来将输出的向量展开成一维向量。
最后我们使用model.summary()来打印模型的结构:
Model: "sequential" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= embedding (Embedding) (None, None, 16) 160000 _________________________________________________________________ flatten (Flatten) (None, None) 0 ================================================================= Total params: 160,000 Trainable params: 160,000 Non-trainable params: 0 _________________________________________________________________
可以看到,EmbeddingLayer将每个离散的ID映射成了一个长度为16的低维向量。
三、EmbeddingLayer参数
EmbeddingLayer的参数包括输入的数据大小(vocab_size)、输出向量的维度(input_dim)等,还包括input_length参数,用来指定输入数据的长度,不过如果输入数据的长度是不固定的,也可以把这个参数设置为None。
在使用EmbeddingLayer时,我们还需要注意一些参数的含义:
- input_dim:输出向量的维度
- input_length:输入数据的长度,如果数据的长度是不固定的,可以将这个参数设置为None
- mask_zero:是否把输入数据中的0作为掩码,这个参数一般用在RNN等模型中,用来忽略输入数据中的padding
下面是一个包含这些参数的示例代码:
import tensorflow as tf # 设定数据 vocab_size = 10000 input_dim = 16 input_length = 10 input_tensor = tf.random.uniform((32, input_length), maxval=vocab_size, dtype=tf.int32) # 建立模型 model = tf.keras.Sequential() model.add(tf.keras.layers.Embedding(vocab_size, input_dim, input_length=input_length, mask_zero=True)) model.add(tf.keras.layers.Flatten()) model.summary()
四、EmbeddingLayer在NLP中的应用
EmbeddingLayer在自然语言处理领域中得到了广泛的应用,主要用来将文本数据映射成低维向量,以便后续的处理。
在文本分类、情感分析等任务中,我们可以使用EmbeddingLayer将文本中的每个单词映射成固定长度的向量,然后把这些向量输入到卷积神经网络或者循环神经网络中,来完成具体的任务。
下面是一个简单的文本分类模型示例代码:
import tensorflow as tf from tensorflow.keras.preprocessing.text import Tokenizer from tensorflow.keras.preprocessing.sequence import pad_sequences # 设定参数 vocab_size = 10000 embedding_dim = 16 max_length = 120 trunc_type = 'post' padding_type = 'post' oov_tok = '' training_size = 20000 # 加载数据 imdb = tf.keras.datasets.imdb (train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=vocab_size) # 对数据进行预处理 tokenizer = Tokenizer(num_words=vocab_size, oov_token=oov_tok) tokenizer.fit_on_texts(train_data) word_index = tokenizer.word_index train_sequences = tokenizer.texts_to_sequences(train_data) train_padded = pad_sequences(train_sequences, maxlen=max_length, padding=padding_type, truncating=trunc_type) # 建立模型 model = tf.keras.Sequential([ tf.keras.layers.Embedding(vocab_size, embedding_dim, input_length=max_length), tf.keras.layers.Flatten(), tf.keras.layers.Dense(6, activation='relu'), tf.keras.layers.Dense(1, activation='sigmoid') ]) model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy']) model.summary() # 训练模型 history = model.fit(train_padded, train_labels, epochs=10, validation_split=0.1, verbose=2)
以上代码中,我们加载了IMDB数据集,使用Tokenizer和pad_sequences对数据进行处理,然后建立了包含EmbeddingLayer的模型并训练模型。
五、EmbeddingLayer在推荐系统中的应用
除了在自然语言处理中的应用外,EmbeddingLayer在推荐系统中也有着广泛的应用。在推荐系统中,我们需要将用户和物品进行离散化的编码,然后把它们映射成低维向量,这个过程中也可以使用EmbeddingLayer。
下面是一个示例代码:
import tensorflow as tf # 设定参数 num_users = 1000 num_items = 10000 embedding_dim = 32 # 建立模型 user_id_input = tf.keras.layers.Input(shape=(1,), dtype='int32', name='user_id') item_id_input = tf.keras.layers.Input(shape=(1,), dtype='int32', name='item_id') user_embedding_layer = tf.keras.layers.Embedding(num_users, embedding_dim) item_embedding_layer = tf.keras.layers.Embedding(num_items, embedding_dim) user_embedding = user_embedding_layer(user_id_input) item_embedding = item_embedding_layer(item_id_input) user_vecs = tf.keras.layers.Flatten()(user_embedding) item_vecs = tf.keras.layers.Flatten()(item_embedding) output_layer = tf.keras.layers.dot([user_vecs, item_vecs], axes=1, normalize=False) model = tf.keras.Model(inputs=[user_id_input, item_id_input], outputs=output_layer) model.compile(loss='mse', optimizer='adam', metrics=['mae']) model.summary()
以上代码中,我们建立了一个简单的推荐系统模型,其中用户和物品都使用了EmbeddingLayer将其离散化的ID映射成了低维向量。
六、EmbeddingLayer的优化
尽管EmbeddingLayer在深度学习中得到了广泛的应用,但是在实际应用中,EmbeddingLayer的计算效率往往较低,尤其当输入数据集比较大时,计算时间会相对较长。
为了提高EmbeddingLayer的计算效率,一些研究人员延伸了EmbeddingLayer,并提出了一些优化方法,如Hierarchical Softmax、Negative Sampling等方法。
以下是一个使用Negative Sampling优化EmbeddingLayer的代码示例:
import tensorflow as tf # 设定参数 vocab_size = 10000 embedding_dim = 16 num_ns = 4 # 建立模型 inputs = tf.keras.layers.Input(shape=(1,), dtype=tf.int32) embedding = tf.keras.layers.Embedding(vocab_size, embedding_dim, input_length=1, name="embedding")(inputs) reshape = tf.keras.layers.Reshape(target_shape=(embedding_dim,))(embedding) nce_weights = tf.Variable( tf.random.uniform([vocab_size, embedding_dim], -1.0, 1.0), name="nce_weights") nce_biases = tf.Variable(tf.zeros([vocab_size]), name="nce_biases") outputs = tf.keras.layers.Lambda(lambda x: tf.compat.v1.nn.nce_loss(weights=nce_weights, biases=nce_biases, labels=x[1], inputs=x[0], num_sampled=num_ns, num_classes=vocab_size))([reshape, inputs]) model = tf.keras.Model(inputs, outputs) model.compile(optimizer='adam', loss=tf.keras.losses.CategoricalCrossentropy(from_logits=True)) model.summary()
以上代码中,我们使用了负采样的方法来优化EmbeddingLayer的计算效率。
七、总结
EmbeddingLayer是深度学习中使用较为广泛的网络层之一,它可以将离散的ID映射成低维向量,用来完成文本分类、推荐系统等任务。在实际应用中,我们需要根据情况选择合适的参数,并进行各种优化方法以提高计算效率。
原创文章,作者:小蓝,如若转载,请注明出处:https://www.506064.com/n/151943.html