计算机系统应用教程网站

网站首页 > 技术文章 正文

每日CV学术探索20210329

btikc 2024-09-03 11:39:11 技术文章 10 ℃ 0 评论

1. Contrastive Learning based Hybrid Networks for Long-Tailed Image Classification. CVPR2021.

Code: https://www.kaihan.org/HybridLT/

摘要:学习判别图像表示在长尾图像分类中起着至关重要的作用,因为它可以缓解不平衡情况下分类器的学习。鉴于对比学习在表征学习中表现出的良好性能,它在最近的研究中得到了广泛的应用。在本研究中,我们探索了有效的监督对比学习策略,并对其进行调整,从不平衡数据中学习更好的图像表示,以提高分类精度。具体来说,我们提出一种新颖的混合网络结构,它是由一个监督学习对比损失图像表示和交叉损失学习分类器组成的。因此,学习从特征学习逐步过渡到分类器学习,以体现更好的特征促使更好的分类器的想法我们探讨了特征学习中对比损失的两种变体,它们形式不同,但有一个共同的想法,即在归一化嵌入空间中将同一类的样本拉到一起,并将不同类的样本分开。其中之一是最近提出的监督对比(SC)损失,这是设计在最先进的无监督对比损失之上,通过合并来自同一类的阳性样本。另一种是原型监督对比(PSC)学习策略,该学习策略解决了标准SC损耗中内存消耗的问题,从而在内存预算有限的情况下表现出更大的潜力。在三个长尾分类数据集上的大量实验证明了本文提出的基于对比学习的混合网络在长尾分类方面的优势。

问题阐述:

实验框图:

创新点:

1) We propose a novel hybrid network structure for longtailed image classification. The network is designed to be composed of a contrastive loss for feature learning and a cross-entropy loss for classifier learning. These two learning tasks are performed following a curriculum to embody the idea that better features can ease classifier learning.

2) We explore effective supervised contrastive learning strategies to learn better features to boost long-tailed classification performance. A prototypical supervised contrastive (PSC) learning is proposed to resolve the memory bottleneck resulted from standard supervised contrastive (SC) learning.

3) We unveil supervised contrastive learning can be a better substitute for typical cross-entropy loss for feature learning in long-tailed classification. Benefited from the better features learned, our hybrid network substantially outperforms the cross-entropy based counterparts.

启发: 不想用对比损失的原因之一就是样本对数目太大,这个论文给解决了,非常值得在遥感图像中一试。

其实查新这个工作,感觉真的挺累的,就算是用RSS这些的订阅了很多链接,期刊,arXiv等,但是需要自己花很多时间去看。同时,根据自己科研的感觉,有时候真的觉得读论文在于精而不在于泛,揪住一个问题深度研究,比广泛的把各个领域的相关工作都了解一遍更重要。当然,针对的仅仅是一个人单打独斗的情况啦。不过,有意思的工作还是值得记录一下。

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表