Lovasz Loss 是一種用於訓練分割模型的損失函數,它通過最小化真實標籤和預測標籤之間的差異來提高模型的準確性和穩定性,被廣泛應用於醫學圖像分割、自然語言處理、圖像識別、社交網路分析等領域。
一、Lovasz Loss 簡介
Lovasz Loss 的核心在於求解兩個集合之間的距離,其中一個集合是真實標籤集合,另一個集合是預測標籤集合。距離的計算方法是基於 Lovasz 擴展理論的,該理論主要用於研究無序的、不可比的有限偏序集的性質。
在分割模型中,我們通常使用 Dice Loss 或交叉熵損失作為評價指標,但是這些損失函數不太適用於非平衡數據集,因為它們會導致分類結果傾向於具有較多樣本的類別。
Lovasz Loss 的主要優點是,它可以有效地處理非平衡數據集,並且在處理稀疏邊界問題時非常有效。此外,Lovasz Loss 與直接優化非概率評分函數(如 IoU 或 Dice 等)相比具有更好的數學性質。
二、計算 Lovasz Loss
Lovasz Loss 的核心在於計算預測序列的排列代價,它可以表示為以下公式:
def lovasz_grad(gt_sorted): """ 計算 Lovasz Loss 的梯度 """ p = len(gt_sorted) gts = gt_sorted.sum() intersection = gts - gt_sorted.float().cumsum(0) union = gts + (1 - gt_sorted).float().cumsum(0) jaccard = 1.0 - intersection / union if p > 1: jaccard[1:p] = jaccard[1:p] - jaccard[0:-1] return jaccard def flatten_binary_scores(scores, labels): """ 將概率評分函數與對應的標籤轉換為二進位函數 """ num_classes = scores.shape[1] all_thresh = torch.unsqueeze(torch.arange(num_classes), dim=0).cuda() all_scores = torch.unsqueeze(scores, dim=0) all_labels = torch.unsqueeze(labels, dim=0) gt = all_labels.long().cuda() scores = all_scores.float().cuda() scores = (scores > torch.unsqueeze(all_thresh, dim=2)).float() scores_sorted, _ = torch.sort(scores, dim=1, descending=True) grad = [] loss = [] for i in range(num_classes): gt_i = gt[:, i].float() grad_i = lovasz_grad(gt_i * 2 - 1) grad.append(grad_i) loss_i = torch.dot(torch.relu(scores_sorted[:, i] - gt_i * 2 + 1), grad_i) loss.append(loss_i) return torch.stack(loss), torch.stack(grad)
其中 gt_sorted 是通過對真實標籤集合進行排序得到的標籤序列,scores 是模型產生的預測標籤序列。這個函數將概率評分函數與對應的標籤轉換為二進位函數,然後計算二進位函數的 Lovasz Loss。
下面是 Lovasz Loss 的標準表達式:
def multi_lovasz_loss(scores, labels): """ 計算多類別 Lovasz Loss """ num_classes = scores.shape[1] if num_classes == 1: loss, _ = lovasz_hinge(scores.squeeze().float(), labels.float()) return loss.unsqueeze(0) losses = [] grad = None for i in range(num_classes): loss_i, grad_i = lovasz_hinge(scores[:, i], labels[:, i], per_image=False) losses.append(loss_i) if grad is None: grad = torch.empty(num_classes, grad_i.size(0)).cuda() grad[i] = grad_i loss = torch.cat(losses).mean() return loss, grad
該函數可以計算多類別 Lovasz Loss,如果只有一個類別,它會使用 Lovasz Hinge Loss。
三、應用 Lovasz Loss
Lovasz Loss 在分割模型、圖像識別、社交網路分析等領域都得到了廣泛的應用。下面是一個利用 Lovasz Loss 進行圖像分割的實例:
class SegmentationLoss(nn.Module): """ 基於 Lovasz Loss 的圖像分割損失函數 """ def __init__(self, mode='binary', per_image=False): super(SegmentationLoss, self).__init__() self.mode = mode self.per_image = per_image def forward(self, outputs, labels): if self.mode == 'binary': loss, grad = lovasz_hinge(outputs.squeeze(), labels.squeeze(), per_image=self.per_image) elif self.mode == 'multiclass': loss, grad = multi_lovasz_loss(outputs, labels) return loss
我們可以通過定義一個繼承自 nn.Module 的 SegmentationLoss 類來使用 Lovasz Loss 訓練分割模型。根據需要,可以選擇單類別分割或多類別分割。
四、總結
Lovasz Loss 在非平衡數據集的圖像分割中具有很好的性能,特別是在處理稀疏圖像邊界問題時非常有效。然而,它也有一些缺點,例如在計算上相對複雜,訓練時間相對較長。
通過深入理解 Lovasz Loss 的核心思想和計算方法,我們可以更好地應用它來提高分割模型的準確性和穩定性。
原創文章,作者:SRVNJ,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/334862.html