千锋教育-做有情怀、有良心、有品质的职业教育机构

手机站
千锋教育

千锋学习站 | 随时随地免费学

千锋教育

扫一扫进入千锋手机站

领取全套视频
千锋教育

关注千锋学习站小程序
随时随地免费学习课程

当前位置:首页  >  技术干货  > 深入理解 Lovasz Loss

深入理解 Lovasz Loss

来源:千锋教育
发布人:xqq
时间: 2023-11-24 19:26:09 1700825169

Lovasz Loss 是一种用于训练分割模型的损失函数,它通过最小化真实标签和预测标签之间的差异来提高模型的准确性和稳定性,被广泛应用于医学图像分割、自然语言处理、图像识别、社交网络分析等领域。

一、Lovasz Loss 简介

Lovasz Loss 的核心在于求解两个集合之间的距离,其中一个集合是真实标签集合,另一个集合是预测标签集合。距离的计算方法是基于 Lovasz 扩展理论的,该理论主要用于研究无序的、不可比的有限偏序集的性质。

在分割模型中,我们通常使用 Dice Loss 或交叉熵损失作为评价指标,但是这些损失函数不太适用于非平衡数据集,因为它们会导致分类结果倾向于具有较多样本的类别。

Lovasz Loss 的主要优点是,它可以有效地处理非平衡数据集,并且在处理稀疏边界问题时非常有效。此外,Lovasz Loss 与直接优化非概率评分函数(如 IoU 或 Dice 等)相比具有更好的数学性质。

二、计算 Lovasz Loss

Lovasz Loss 的核心在于计算预测序列的排列代价,它可以表示为以下公式:


def lovasz_grad(gt_sorted):
    """
    计算 Lovasz Loss 的梯度
    """
    p = len(gt_sorted)
    gts = gt_sorted.sum()
    intersection = gts - gt_sorted.float().cumsum(0)
    union = gts + (1 - gt_sorted).float().cumsum(0)
    jaccard = 1.0 - intersection / union
    if p > 1:
        jaccard[1:p] = jaccard[1:p] - jaccard[0:-1]
    return jaccard

def flatten_binary_scores(scores, labels):
    """
    将概率评分函数与对应的标签转换为二进制函数
    """
    num_classes = scores.shape[1]
    all_thresh = torch.unsqueeze(torch.arange(num_classes), dim=0).cuda()
    all_scores = torch.unsqueeze(scores, dim=0)
    all_labels = torch.unsqueeze(labels, dim=0)

    gt = all_labels.long().cuda()
    scores = all_scores.float().cuda()
    scores = (scores > torch.unsqueeze(all_thresh, dim=2)).float()
    scores_sorted, _ = torch.sort(scores, dim=1, descending=True)

    grad = []
    loss = []
    for i in range(num_classes):
        gt_i = gt[:, i].float()
        grad_i = lovasz_grad(gt_i * 2 - 1)
        grad.append(grad_i)
        loss_i = torch.dot(torch.relu(scores_sorted[:, i] - gt_i * 2 + 1), grad_i)
        loss.append(loss_i)
    return torch.stack(loss), torch.stack(grad)

其中 gt_sorted 是通过对真实标签集合进行排序得到的标签序列,scores 是模型产生的预测标签序列。这个函数将概率评分函数与对应的标签转换为二进制函数,然后计算二进制函数的 Lovasz Loss。

下面是 Lovasz Loss 的标准表达式:


def multi_lovasz_loss(scores, labels):
    """
    计算多类别 Lovasz Loss
    """
    num_classes = scores.shape[1]
    if num_classes == 1:
        loss, _ = lovasz_hinge(scores.squeeze().float(), labels.float())
        return loss.unsqueeze(0)
    losses = []
    grad = None
    for i in range(num_classes):
        loss_i, grad_i = lovasz_hinge(scores[:, i], labels[:, i], per_image=False)
        losses.append(loss_i)
        if grad is None:
            grad = torch.empty(num_classes, grad_i.size(0)).cuda()
        grad[i] = grad_i
    loss = torch.cat(losses).mean()
    return loss, grad

该函数可以计算多类别 Lovasz Loss,如果只有一个类别,它会使用 Lovasz Hinge Loss。

三、应用 Lovasz Loss

Lovasz Loss 在分割模型、图像识别、社交网络分析等领域都得到了广泛的应用。下面是一个利用 Lovasz Loss 进行图像分割的实例:


class SegmentationLoss(nn.Module):
    """
    基于 Lovasz Loss 的图像分割损失函数
    """
    def __init__(self, mode='binary', per_image=False):
        super(SegmentationLoss, self).__init__()
        self.mode = mode
        self.per_image = per_image

    def forward(self, outputs, labels):
        if self.mode == 'binary':
            loss, grad = lovasz_hinge(outputs.squeeze(), labels.squeeze(), per_image=self.per_image)
        elif self.mode == 'multiclass':
            loss, grad = multi_lovasz_loss(outputs, labels)

        return loss

我们可以通过定义一个继承自 nn.Module 的 SegmentationLoss 类来使用 Lovasz Loss 训练分割模型。根据需要,可以选择单类别分割或多类别分割。

四、总结

Lovasz Loss 在非平衡数据集的图像分割中具有很好的性能,特别是在处理稀疏图像边界问题时非常有效。然而,它也有一些缺点,例如在计算上相对复杂,训练时间相对较长。

通过深入理解 Lovasz Loss 的核心思想和计算方法,我们可以更好地应用它来提高分割模型的准确性和稳定性。

tags: mapiterator
声明:本站稿件版权均属千锋教育所有,未经许可不得擅自转载。
10年以上业内强师集结,手把手带你蜕变精英
请您保持通讯畅通,专属学习老师24小时内将与您1V1沟通
免费领取
今日已有369人领取成功
刘同学 138****2860 刚刚成功领取
王同学 131****2015 刚刚成功领取
张同学 133****4652 刚刚成功领取
李同学 135****8607 刚刚成功领取
杨同学 132****5667 刚刚成功领取
岳同学 134****6652 刚刚成功领取
梁同学 157****2950 刚刚成功领取
刘同学 189****1015 刚刚成功领取
张同学 155****4678 刚刚成功领取
邹同学 139****2907 刚刚成功领取
董同学 138****2867 刚刚成功领取
周同学 136****3602 刚刚成功领取
相关推荐HOT