一、多標籤分類損失函數改進
多標籤分類是指將實例分配到多個標籤中,與單一標籤分類不同,這種分類形式更符合實際。但是,在多標籤分類中經典的二分類交叉熵損失函數在處理問題時存在一些問題,如對不平衡數據樣本分類效果不佳等。為了解決這些問題,人們提出了多標籤分類的交叉熵損失函數。
多標籤分類的交叉熵損失函數是將二分類交叉熵損失函數拓展到多標籤分類問題中。多標籤分類問題中,每個樣本有多個標籤標記,所以用sigmoid取代softmax。下面是多標籤分類損失函數的數學公式:
$$J(\theta) = -\frac{1}{m}\sum_{i=1}^{m}\sum_{j=1}^{n}[y_{i,j} \log(h_{\theta}(x^{(i)}))_{j} + (1-y_{i,j}) \log(1 - (h_{\theta}(x^{(i)}))_{j})] + \frac{\lambda}{2m}\sum_{r=1}^{n}\sum_{k=1}^{n} \theta_{k,r}^2$$
在損失函數中,$y_{i,j}$和$(h_{\theta}(x^{(i)}))_{j}$分別是樣本$i$中第$j$個標籤的實際值和預測值,$\theta$是模型參數,$\lambda$是正則化參數。
二、分類交叉熵損失函數
交叉熵損失函數是分類問題中經典的一種損失函數,常用於二元分類任務中。交叉熵損失函數主要是在對數損失函數的基礎上進行的改進。當分類結果正確時,交叉熵損失函數的值越小;當分類結果錯誤時,交叉熵損失函數的值越大。
在二元分類中,交叉熵損失函數的數學公式如下:
$$L(y_i, f_i) = -[y_i\log(f_i)+(1-y_i)\log(1-f_i)]$$
其中,$y_i$為樣本$i$的真實標記,$f_i$為樣本$i$的預測標記。
三、多標籤分類損失函數缺點
多標籤分類損失函數在處理類別不平衡的問題時,可能會出現過擬合的情況。為了解決這個問題,人們提出了一些改進的方法。其中一種方法是引入平衡權重因子,即對不同類別樣本分配不同的權重係數。
多標籤分類損失函數的另一個缺點是當標籤之間存在依賴性時,模型的學習效果不佳。這是因為多標籤分類損失函數是獨立二分類損失函數的簡單組合形式,無法考慮標籤之間的依賴關係。因此,研究者提出了一些新的模型來解決這個問題。
四、分類任務常用的損失函數
分類任務常用的損失函數有很多,其中比較經典的有:
- 二元交叉熵損失函數
- 多元交叉熵損失函數
- 對數損失函數
- 指數損失函數
五、二分類的損失函數
針對二分類問題,經常使用的損失函數有:
- 交叉熵損失函數
- 對數損失函數
- 合頁損失函數
- 背景誤差損失函數
六、多分類任務的損失函數
針對多分類問題,經常使用的損失函數有:
- 交叉熵損失函數
- Focal Loss損失函數
- Jaccard Loss損失函數
- 混淆熵損失函數
七、分類問題的損失函數
分類問題的損失函數主要是通過對真實值和預測值之間的誤差進行度量,來判斷模型是否有效。除了前面提到的損失函數外,還有:
- KL散度損失函數
- 均方損失函數
- 平均絕對誤差損失函數
- Huber損失函數
八、分類常用損失函數
分類常用的損失函數是對不同問題進行針對性的設計,以達到更好的效果。除了上述的損失函數外,還有:
- Wassertein距離損失函數
- Adversarial_Loss損失函數
- Center loss損失函數
- Triplet Loss損失函數
九、多分類損失函數
多分類損失函數是指通過對目標值和預測值間的距離進行度量,並給出一個分類損失來在多分類問題中進行訓練。除了多元交叉熵損失函數以外,還有:
- Hinge Loss損失函數
- Deviance Loss損失函數
- 廣義KL散度損失函數
- 指數損失函數
十、代碼示例
import torch.nn.functional as F def multi_label_cross_entropy_loss(outputs, labels, weight=None): loss = F.binary_cross_entropy_with_logits(outputs, labels, weight=weight) return loss def binary_cross_entropy_loss(outputs, labels, weight=None): loss = F.binary_cross_entropy(outputs, labels, weight=weight) return loss def multi_class_cross_entropy_loss(outputs, labels, weight=None): loss = F.cross_entropy(outputs, labels, weight=weight) return loss def kl_divergence_loss(outputs, targets, reduction='batchmean'): loss = F.kl_div(F.log_softmax(outputs, dim=1), targets, reduction=reduction) return loss def huber_loss(outputs, targets, delta=1.0, reduction='mean'): loss = F.smooth_l1_loss(outputs, targets, reduction=reduction, beta=delta) return loss
原創文章,作者:XPFG,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/135481.html