关注并星标
从此不迷路
公众号ID|计算机视觉研究院
学习群|扫码在主页获取加入方式
源码| 回复“SSA”获取论文下载
计算机视觉研究院专栏
Column of Computer Vision Institute
启发式定义的anchor质量低,不能覆盖目标,导致目标和anchor之间的错位。例如,桥的展宽比通常在1/3到1/30之间,只有少数anchor甚至没有anchor可以校准。这种错位通常加剧前景背景类的不平衡,阻碍性能。
主干网络的卷积特征通常与固定的接受场进行轴对齐,而航空图像中的目标则以任意的方向和不同的外观进行分布。即使是anchor boxes被分配给具有高可信度的实例(即IoU),anchor boxes与卷积特征之间仍然存在错位。换句话说,anchor boxes的相应特征在某种程度上难以表示整个目标。结果,最终的分类分数不能准确地反映定位精度,这也阻碍了后处理阶段的检测性能(如NMS)。
相同设置下不同方法的性能比较
三、新框架分析
RetinaNet as Baseline
注意,RetinaNet设计用于通用目标检测,输出水平边界框(如下图(a))表示为:
为了与面向目标检测相兼容,研究者将定向边界框代替RetinaNet的回归输出。如上图(b),表示为:
其实就是增加了一个角度参数,角度θ范围[-π/4,3π/4]。
Alignment Convolution
直接上图,看图说话。
如图所示。通过规则网格在特征图上的标准卷积样本。DeformConv学习一个偏移场来增加空间采样位置。然而,它可能会在错误的地方采样,特别是对于包装密集的物体。研究者提出的AlignConv通过添加一个额外的偏移字段的anchor boxes引导来提取网格分布的特征。与DeformConv不同,AlignConv中的偏移字段是直接从anchor boxes推断出来的。上图中的例子。(c)和(d)说明了AlignConv可以在anchor boxes中提取准确的特征。
(a)是标准的常规采样位置二维卷积(绿点)。(b)为Deformable Convolution,具有可变形采样位置(蓝点)。(c)和(d)是研究者提出的具有水平和旋转anchor boxes(AB)的两个例子(橙色矩形),蓝色箭头表示偏移字段。
Feature Alignment Module (FAM)
采用输入特征和anchor预测。映射为输入,并生成对齐的特征。
Oriented Detection Module (ODM)
ODM以缓解分类分数和定位精度之间的不一致性,然后进行精确的目标检测。
四、实验及可视化
不同的RETINANET在DOTA数据集上的结果
研究者将一个大尺寸的图像裁剪成1024×1024chip图像,步长为824。将大尺寸图像和chip图像输入相同网络,以不调整大小即可产生检测结果(例如红框中的飞机)。
不同的方法在DOTA数据集上的结果
在HRSC2016数据上的测试结果
上图的检测结果,在军事或者码头都有前景的研究,码头可以减少人工调度的工作,军事就可以更加准确的进行攻击及反击。如之前贡献的一个技术:
计算机视觉来看看苏伊士运河堵船(船舶检测)
转载请联系本公众号获得授权
计算机视觉研究院学习群等你加入!
ABOUT
计算机视觉研究院
??
Sparse R-CNN:稀疏框架,端到端的目标检测(附源码)
本文暂时没有评论,来添加一个吧(●'◡'●)