Python深度學習必備:如何使用tf.nn.softmax實現多分類問題

一、什麼是tf.nn.softmax

在開始講如何使用tf.nn.softmax實現多分類問題之前,我們首先需要了解「softmax」是什麼。

在深度學習中,我們通常會使用softmax函數來進行多分類問題的分類。softmax函數是一種激活函數,能夠將一個K維的任意實數向量「壓縮」到另一個K維的實數向量中,使得每個元素的取值範圍都在0~1之間,並且所有元素的和為1,因此可以將這個向量解釋為概率分布。

在TensorFlow中,我們可以使用tf.nn.softmax函數來計算softmax值,它接受一個實數列表作為輸入,並返回一個新的列表,其中每個元素都是輸入列表對應位置的元素的softmax值。


import tensorflow as tf
 
# 定義輸入數據
input_data = tf.constant([1.0, 2.0, 3.0])
 
# 計算softmax值
softmax_output = tf.nn.softmax(input_data)
 
# 列印輸出結果
with tf.Session() as sess:
    output = sess.run(softmax_output)
    print(output)

二、如何使用tf.nn.softmax實現多分類問題

有了對softmax的了解後,我們現在就可以開始使用它來解決多分類問題了。

假設我們已經有了一個包含N個樣本的訓練集,每個樣本有M個特徵,同時我們需要將這些樣本分為K類。我們可以使用softmax來建立一個K個單元的輸出層,每個單元對應一個類別。我們將輸入樣本傳遞給該輸出層,並對輸出進行softmax運算,即可得到每個樣本屬於每個類別的概率。

下面的代碼是一個使用tf.nn.softmax實現多分類問題的例子。我們使用鳶尾花數據集(Iris)作為示例數據集,這個數據集包含三個類別:山鳶尾(Iris setosa)、變色鳶尾(Iris versicolor)和維吉尼亞鳶尾(Iris virginica)。我們將隨機選擇80%的數據作為訓練集,其餘20%作為測試集。


import tensorflow as tf
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
 
# 定義超參數
learning_rate = 0.01
training_epochs = 50
batch_size = 25
 
# 載入數據集
iris = load_iris()
x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2)
num_features = len(iris.feature_names)
num_classes = len(iris.target_names)
 
# 創建佔位符
x = tf.placeholder(tf.float32, [None, num_features])
y = tf.placeholder(tf.int32, [None])
 
# 創建變數
W = tf.Variable(tf.zeros([num_features, num_classes]))
b = tf.Variable(tf.zeros([num_classes]))
 
# 定義模型
logits = tf.matmul(x, W) + b
softmax = tf.nn.softmax(logits)
 
# 定義損失函數
cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=y, logits=logits)
loss = tf.reduce_mean(cross_entropy)
 
# 定義優化器
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss)
 
# 定義評估函數
correct_prediction = tf.equal(tf.argmax(softmax, 1), tf.cast(y, tf.int64))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
 
# 創建會話
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
 
    # 訓練模型
    for epoch in range(training_epochs):
        avg_loss = 0.
        total_batch = int(len(x_train) / batch_size)
        for i in range(total_batch):
            batch_x = x_train[i*batch_size:(i+1)*batch_size]
            batch_y = y_train[i*batch_size:(i+1)*batch_size]
            _, l = sess.run([optimizer, loss], feed_dict={x: batch_x, y: batch_y})
            avg_loss += l / total_batch
        # 每迭代50次輸出一次結果
        if (epoch+1) % 50 == 0:
            print("Epoch:", '%04d' % (epoch+1), "loss=", "{:.9f}".format(avg_loss))
 
    # 在測試集上評估模型
    acc = sess.run(accuracy, feed_dict={x: x_test, y: y_test})
    print("Test Accuracy:", acc)

三、如何解決softmax回歸中的過擬合問題

在實際應用中,我們往往會遇到過擬合的問題,這意味著模型在訓練集上表現良好,但在測試集上表現不佳。那麼我們該如何解決這個問題呢?

一種解決過擬合問題的方法是正則化,它可以幫助我們在減少模型複雜度的同時,仍然保持準確性。TensorFlow中提供了一些正則化方法,包括L1正則化、L2正則化以及Dropout。

L1正則化通過對模型的權重矩陣進行懲罰,鼓勵模型使用較少的特徵(更稀疏)。L2正則化通過對模型的權重矩陣進行限制,鼓勵模型使用較多的特徵(整體縮小權重)。Dropout是一種丟棄神經元的方法,可以使訓練出來的模型更加魯棒。


import tensorflow as tf
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
 
# 定義超參數
learning_rate = 0.01
training_epochs = 50
batch_size = 25
display_step = 1
 
# 載入數據集
iris = load_iris()
x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, test_size=0.2)
num_features = len(iris.feature_names)
num_classes = len(iris.target_names)
 
# 創建佔位符
x = tf.placeholder(tf.float32, [None, num_features])
y = tf.placeholder(tf.int32, [None])
 
# 創建變數,添加正則化項
W = tf.Variable(tf.zeros([num_features, num_classes]), name="weights")
b = tf.Variable(tf.zeros([num_classes]), name="biases")
L2_lambda = 0.01
tf.add_to_collection(tf.GraphKeys.REGULARIZATION_LOSSES, tf.contrib.layers.l2_regularizer(L2_lambda)(W))
 
# 定義模型
logits = tf.matmul(x, W) + b
softmax = tf.nn.softmax(logits)
 
# 定義損失函數,加上正則化項
cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=y, logits=logits)
loss = tf.reduce_mean(cross_entropy) + tf.add_n(tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES))
 
# 定義優化器
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss)
 
# 定義評估函數
correct_prediction = tf.equal(tf.argmax(softmax, 1), tf.cast(y, tf.int64))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
 
# 創建會話
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
 
    # 訓練模型
    for epoch in range(training_epochs):
        avg_loss = 0.
        total_batch = int(len(x_train) / batch_size)
        for i in range(total_batch):
            batch_x = x_train[i*batch_size:(i+1)*batch_size]
            batch_y = y_train[i*batch_size:(i+1)*batch_size]
            _, l = sess.run([optimizer, loss], feed_dict={x: batch_x, y: batch_y})
            avg_loss += l / total_batch
        # 每迭代1次輸出一次結果
        if (epoch+1) % display_step == 0:
            acc = sess.run(accuracy, feed_dict={x: x_test, y: y_test})
            print("Epoch:", '%04d' % (epoch+1), "loss=", "{:.9f}".format(avg_loss), "accuracy=", "{:.4f}".format(acc))
 
    # 在測試集上評估模型
    acc = sess.run(accuracy, feed_dict={x: x_test, y: y_test})
    print("Test Accuracy:", acc)

原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/307123.html

(0)
打賞 微信掃一掃 微信掃一掃 支付寶掃一掃 支付寶掃一掃
小藍的頭像小藍
上一篇 2025-01-02 18:06
下一篇 2025-01-02 18:06

相關推薦

  • Python計算陽曆日期對應周幾

    本文介紹如何通過Python計算任意陽曆日期對應周幾。 一、獲取日期 獲取日期可以通過Python內置的模塊datetime實現,示例代碼如下: from datetime imp…

    編程 2025-04-29
  • Python官網中文版:解決你的編程問題

    Python是一種高級編程語言,它可以用於Web開發、科學計算、人工智慧等領域。Python官網中文版提供了全面的資源和教程,可以幫助你入門學習和進一步提高編程技能。 一、Pyth…

    編程 2025-04-29
  • Python列表中負數的個數

    Python列表是一個有序的集合,可以存儲多個不同類型的元素。而負數是指小於0的整數。在Python列表中,我們想要找到負數的個數,可以通過以下幾個方面進行實現。 一、使用循環遍歷…

    編程 2025-04-29
  • Python周杰倫代碼用法介紹

    本文將從多個方面對Python周杰倫代碼進行詳細的闡述。 一、代碼介紹 from urllib.request import urlopen from bs4 import Bea…

    編程 2025-04-29
  • 如何查看Anaconda中Python路徑

    對Anaconda中Python路徑即conda環境的查看進行詳細的闡述。 一、使用命令行查看 1、在Windows系統中,可以使用命令提示符(cmd)或者Anaconda Pro…

    編程 2025-04-29
  • Python中引入上一級目錄中函數

    Python中經常需要調用其他文件夾中的模塊或函數,其中一個常見的操作是引入上一級目錄中的函數。在此,我們將從多個角度詳細解釋如何在Python中引入上一級目錄的函數。 一、加入環…

    編程 2025-04-29
  • 蝴蝶優化演算法Python版

    蝴蝶優化演算法是一種基於仿生學的優化演算法,模仿自然界中的蝴蝶進行搜索。它可以應用於多個領域的優化問題,包括數學優化、工程問題、機器學習等。本文將從多個方面對蝴蝶優化演算法Python版…

    編程 2025-04-29
  • Python字典去重複工具

    使用Python語言編寫字典去重複工具,可幫助用戶快速去重複。 一、字典去重複工具的需求 在使用Python編寫程序時,我們經常需要處理數據文件,其中包含了大量的重複數據。為了方便…

    編程 2025-04-29
  • python強行終止程序快捷鍵

    本文將從多個方面對python強行終止程序快捷鍵進行詳細闡述,並提供相應代碼示例。 一、Ctrl+C快捷鍵 Ctrl+C快捷鍵是在終端中經常用來強行終止運行的程序。當你在終端中運行…

    編程 2025-04-29
  • Python程序需要編譯才能執行

    Python 被廣泛應用於數據分析、人工智慧、科學計算等領域,它的靈活性和簡單易學的性質使得越來越多的人喜歡使用 Python 進行編程。然而,在 Python 中程序執行的方式不…

    編程 2025-04-29

發表回復

登錄後才能評論