在深度學習領域,torch.nn.functional被廣泛應用於各種深度學習網路模型的構建。它是torch.nn的一部分,提供了一系列的高效的、可重用的、可微分的神經網路操作函數,如卷積、池化、歸一化、非線性激活函數等。而且,torch.nn.functional的設計初衷是直接用來編寫神經網路模型,所以這些函數不會產生額外的權重變數。
一、torch.nn.functional.pad
torch.nn.functional.pad函數實現對張量的填充操作。填充操作可以在各種計算機視覺任務中起到一定的作用,如邊緣檢測、物體檢測等。在深度學習中,常常需要將輸入數據填充到特定的大小,使其可以與卷積核進行卷積計算。
padding函數的參數argument如下:
- input: 需要填充的張量
- padding: 填充的數量。可以為一個數,表示在每個維度上填充的長度相同;也可以為一個列表,表示每個維度上需要填充的長度不相同。
- mode: 填充方式,默認值為CONSTANT,即常量填充,可以選擇REFLECT(反射填充)和EDGE(邊緣填充)。
import torch.nn.functional as F
input = torch.randn(2, 3)
padding = (2, 1)
padded_input = F.pad(input, padding, mode='constant', value=0)
print(padded_input.shape) # torch.Size([2, 7])
二、torch.nn.functional.relu
torch.nn.functional.relu函數實現的是ReLU激活函數。它接收一個張量作為輸入,將小於0的項設置為0,並返回結果。這個函數非常簡單,但是因為在許多網路中經常被用到,所以它是非常有用的。ReLU激活函數對於訓練神經網路極其重要。
relu函數的參數argument如下:
- input: 輸入張量
- inplace: 是否進行原地計算,即是否覆蓋input。默認值為False。
input = torch.randn(2, 3)
output = F.relu(input)
print(output)
三、torch.nn.functional.cross
torch.nn.functional.cross函數實現的是兩個張量的叉積操作。兩個張量必須具有相同的形狀。
cross函數的參數argument如下:
- input1: 第一個張量
- input2: 第二個張量,與第一個張量的維數必須相同
- dim: 計算叉積的維度。默認為最後一維
input1 = torch.randn(3, 4)
input2 = torch.randn(3, 4)
output = F.cross(input1, input2)
print(output)
四、torch.nn.functional.unfold
torch.nn.functional.unfold函數實現的是張量的展開操作。它接受一個張量作為輸入,並展開它的最後兩個維度到一個二維張量。這種展開操作對於卷積神經網路是很常用的。展開後的張量可以被用於高維卷積操作。
unfold函數的參數argument如下:
- input: 需要展開的張量
- kernel_size: 展開後每個小區域的大小
- stride: 展開的步幅大小
- padding: 填充大小
input = torch.randn(4, 3, 28, 28)
unfold_input = F.unfold(input, kernel_size=3, stride=1, padding=1)
print(unfold_input.shape) # torch.Size([4, 27, 784])
五、torch.nn.functional.one_hot
torch.nn.functional.one_hot函數實現的是對標籤或類別的one_hot編碼。在深度學習中,常常使用one_hot來表示離散的標籤或類別。
one_hot函數的參數argument如下:
- input: 需要one_hot編碼的張量
- num_classes: 類別的數量
input = torch.tensor([2, 5, 3])
one_hot = F.one_hot(input, num_classes=10)
print(one_hot.shape) # torch.Size([3, 10])
六、torch.nn.functional.L1_loss
torch.nn.functional.L1_loss函數實現的是L1範數損失函數。L1範數是絕對值的和,在深度學習中常用於較小規模的任務中。
L1_loss函數的參數argument如下:
- input: 模型的輸出
- target: 標籤值
- size_average: 是否對每個batch的損失進行平均。默認為True。
input = torch.randn(3, 5)
target = torch.randn(3, 5)
loss = F.l1_loss(input, target)
print(loss) # tensor(1.3011)
七、torch.nn.functional.softplus
torch.nn.functional.softplus函數實現的是Softplus激活函數。這個函數是ReLU激活函數的平滑版本。Softplus函數的輸出是正的,並且是一個連續的可導函數。
softplus函數的參數argument如下:
- input: 輸入張量
- beta: 控制平滑度的參數。默認為1
input = torch.randn(2, 3)
output = F.softplus(input)
print(output)
原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/239439.html