计算机系统应用教程网站

网站首页 > 技术文章 正文

[每天10分钟学习视觉算法]-分割算法常用损失函数

btikc 2024-10-20 05:09:03 技术文章 9 ℃ 0 评论

交叉熵损失函数

(Cross Entropy Loss)交叉熵广泛应用于分类任务,可以扩展到分割任务。通过计算真实标签和预测标签之间的交叉熵来衡量它们之间的差异。交叉熵损失函数鼓励模型产生更接近真实标签的预测。(deeplab, unet)

Focal Loss

对标准的交叉熵损失函数的改进,使分配给分好类别样本的损失是低权重的。最终确保没有分类失衡。随着正确类别置信度的增加,交叉熵损失随比例因子逐渐衰减为零。比例因子会在训练时自动降低简单样本的贡献,更注重复杂的样本。

Dice Loss

Dice Loss 使用 Dice 系数(也称为 F1 分数)来度量真实标签和预测标签的相似度。Dice Loss 的值越小,表示预测结果与真实标签的重叠越少。则用于度量预测分割掩模与真实标签之间的相似度。(deeplab)

IoU Loss

Jaccard Loss 使用 Jaccard 系数(也称为 Intersection over Union 或 IoU)来度量预测结果与真实标签的相似度。Jaccard Loss 的值越小,表示预测结果与真实标签的重叠越少。这种损失的形式是一种空间轮廓而非区域的距离度量。

二分类图像分割任务中,可以使用交叉熵损失函数;

多类别图像分割任务中,可以考虑使用 Dice Loss 或 Jaccard Loss。

Lovasz-Softmax

是一种基于排序的损失函数,用于处理图像实例分割任务。它结合了 Lovasz 扩展和 Softmax 交叉熵损失,具有尺度不变性和对类别平衡性的敏感性。

对于像素级别的预测结果进行了排序并进行了逐像素的计算,因此在处理图像实例分割任务中可以更好地处理边界和小目标。

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表