lightrcoom怎么调出预设

本笔记记录目标检测算法arxiv2017_Light-Head R-CNN清华夶学、旷视科技联合作品,基于frcnn、R-FCN做了一个轻量级的检测分支,速度更快效果也挺好,可结合fig 2对比;

3中的网络结构设计模式以减少计算量;

1-stage检测算法速度快精度稍弱;

那么有没有可能2-stage检测算法可以在速度、精度上都优于1-stage算法(RetinaNet表示不服,要反杀)作者发现,frcnn、R-FCN等在RoI warping操作前后存在大量的计算开销也即主干网body后,连接了一个heavy head如:

cls),这样frcnn中对每个RoI高计算量的2fc层就直接省略了计算量自然小了很多,苴RoI间的score maps上计算量尽量共享目标检测中的位置敏感性来源于生成的超大通道数的score maps + PSRoI Pooling;

不过本文提到了,frcnn、R-FCN虽然很屌但依然在模型的不同阶段包含一个heavy head:

从精度角度:frcnn对每个RoI做bbox cls是比较厉害的,但为了减少RoI Pooling后与 fc 层的全连接参数引入了GAP,参数量少了计算量小了,位置敏感性却丟失了;R-FCN通过PSRoI Pooling获取了位置敏感性后续即使添加GAP也能保留目标的位置信息,但没有RoI-wise操作的话性能会弱于frcnn;

从速度角度:frcnn对每个RoI都要重复GAP + 2fc,在proposals数量比较多时计算量就比较大了;R-FCN使用PSRoI Pooling获取目标位置特征,2nd-stage的R-CNN subnet计算开销就比较小了但为获取目标的位置敏感性,在PSRoI Pooling操作前需要獲得一个超大通道数的score map,计算开销也是很大的;

如fig 2(c)中Light-Head RCNN在R-CNN subnet也接了一个 fc 层,但可以发现参数明显少了很多没有GAP操作,计算量小目标的位置信息没有丢失,精度也很高;再然后 fc 层参数量也与前层feature map通道数有关下节将介绍RoI wraping操作的通道数;

warping操作的计算量就少了很多;而且RoI wraping后的feature map通噵数也比较少,参数没那么多就可以摒弃GAP,直接与 fc 层连接这样模型参数也会少了好多;

anchor正负样本标签:

COCO-style的AP评估标准为IoU阈值从[0.5,0.95]区间stride = 0.05,比Pascal VOC的单一IoU = 0.5评估方案能更全面地反应检测器之性能,此外还根据目标尺度做了多维度的评估方案;

设计了fig 4中的网络结构,来评估thin feature map对模型性能的影响整体上与R-FCN一致,小改动如下:

结果如table 2通道数降了这么多(3969 vs 490),性能下降程度还能接受;且因为通道数急剧减少参数少叻,内存消耗少了Light-head R-CNN还可以使用FPN的特征金字塔操作方式了(如table 5),原始R-FCN因为通道数太多占用内存过大,FPN + PSRoI pooling可操作不起来;

微信链接:旷视研究院解读Light-Head R-CNN:平衡精准度和速度

暂未公布(until );

}

我要回帖

更多关于 dying light 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信