旋转目标检测rotation-yolov5
旋转目标检测综述
SSA旋转目标检测
旋转目标检测rotation-yolov5笔记_AI视觉网奇的博客-CSDN博客_yolov5旋转目标检测
旋转目标检测综述(持续更新中)_杀生丸变大叔了的博客-CSDN博客_旋转目标检测
七、R3det(19单阶)
1.表示方法、框架:
2.Rotation RetinaNet
3.Refined Rotation RetinaNet
4.Feature Refinment Module
5.实验
八、CAD-Net(19,69.9map)
1.整体组成
2.实验结果
九、 ROI-Transformer(CVPR19)
1.旋转anchor缺点
2.STN和可变形卷积
3.RoI transformer
3.1RRoI Learner
3.2 Rotated Position Sensitive RoI Align
4.实验结果
十、 RSDet(19.12,DOTA上mAP74.1)
十一、SCRDet(ICCV2019,75.35)
1.前身:R2CNN++
2.SCRDet:
开源地址:
一、简要
为了解决这个问题,有研究者提出了一个Single-shot Alignment Network(S2A-Net),由两个模块组成:一个特征对齐模块(FAM)和一个定向检测模块(ODM)。FAM可以通过anchor优化网络生成高质量的anchor,并根据anchor boxes与新提出的对齐卷积来自适应对齐卷积特征。ODM首先采用主动active rotating filters对方向信息进行编码,然后产生方向敏感和方向不变的特征,以缓解分类分数与定位精度之间的不一致性。此外,研究者还进一步探索了在大尺寸图像中检测物体的方法,从而在速度和精度之间进行了更好的权衡。
大量的实验表明,新提出的方法可以在两个常用的数据集(DOTA和HRSC2016)上达到最先进的性能,同时保持高效率!
二、背景
与基于R-CNN的探测器相比,one-stage探测器回归边界框,并直接用常规和密集的采样anchor对它们进行分类。这种架构具有很高的计算效率,但在精度上往往落后于[G.-S. Xia, X. Bai, J. Ding, Z. Zhu, S. Belongie, J. Luo, M. Datcu, M. Pelillo, and L. Zhang, “DOTA: A large-scale dataset for object detection in aerial images,” in CVPR, 2018]。如下图所示,认为one-stage探测器出现严重错位。
相同设置下不同方法的性能比较
三、新框架分析
注意,RetinaNet设计用于通用目标检测,输出水平边界框(如下图(a))表示为:
为了与面向目标检测相兼容,研究者将定向边界框代替RetinaNet的回归输出。如上图(b),表示为:
其实就是增加了一个角度参数,角度θ范围[-π/4,3π/4]。
直接上图,看图说话。
如图所示。通过规则网格在特征图上的标准卷积样本。DeformConv学习一个偏移场来增加空间采样位置。然而,它可能会在错误的地方采样,特别是对于包装密集的物体。研究者提出的AlignConv通过添加一个额外的偏移字段的anchor boxes引导来提取网格分布的特征。与DeformConv不同,AlignConv中的偏移字段是直接从anchor boxes推断出来的。上图中的例子。(c)和(d)说明了AlignConv可以在anchor boxes中提取准确的特征。
(a)是标准的常规采样位置二维卷积(绿点)。(b)为Deformable Convolution,具有可变形采样位置(蓝点)。(c)和(d)是研究者提出的具有水平和旋转anchor boxes(AB)的两个例子(橙色矩形),蓝色箭头表示偏移字段。
采用输入特征和anchor预测。映射为输入,并生成对齐的特征。
ODM以缓解分类分数和定位精度之间的不一致性,然后进行精确的目标检测。
四、实验及可视化
不同的RETINANET在DOTA数据集上的结果
研究者将一个大尺寸的图像裁剪成1024×1024chip图像,步长为824。将大尺寸图像和chip图像输入相同网络,以不调整大小即可产生检测结果(例如红框中的灰机)。
不同的方法在DOTA数据集上的结果
在HRSC2016数据上的测试结果
版权说明 : 本文为转载文章, 版权归原作者所有 版权申明
原文链接 : https://blog.csdn.net/jacke121/article/details/125696111
内容来源于网络,如有侵权,请联系作者删除!