YOLO模型和mtcnn模型对比,在做人脸检测识别时,有何不同?

匿名网友10个月前这是继RCNNfast-RCNN和faster-RCNN之后,RossGirshick针对DL目标检测速度问题提出的另外一种框架YOLOV1其增强版本在GPU上能跑45fps,简化版本155fps论文下载:/pjreddie/darknet1.YOLO的核心思想YOLO的核心思想就是利用整张图作为網络的输入,直接在输出层回归boundingbox(边界框)的位置及其所属的类别faster-RCNN中也直接用整张图作为输入,但是faster-RCNN整体还是采用了RCNN那种proposal+classifier的思想只不過是将提取proposal的步骤放在CNN中实现了,而YOLO则采用直接回归的思路2.YOLO的实现方法将一幅图像分成SxS个网格(gridcell),如果某个object的中心落在这个网格中則这个网格就负责预测这个object。每个网格要预测B个boundingbox每个boundingbox除了要回归自身的位置之外,还要附带预测一个confidence值这个confidence代表了所预测的box中含有object的置信度和这个box预测的有多准这两重信息,其值是这样计算的:其中如果有object落在一个gridcell里第一项取1,否则取0第二项是预测的boundingbox和实际的groundtruth之间嘚IoU值。每个boundingbox要预测(x,y,w,h)和confidence**5个值每个网格还要预测一个类别信息,记为C类则SxS个网格,每个网格要预测B个boundingbox还要预测C个categories输出就是SxSx(5*B+C)的一个tensor。注意:class信息是针对每个网格的confidence信息是针对每个boundingbox的。


匿名网友LV10个月前mtcnn和yolov3和ssd等目标检测算法各有什么特点或优势求分析


匿名网友LV10个月前信息熵熵权法是一种客观赋权方法。按照信息论基本原理的解释信息是系统有序程度的一个度量,熵是系统无序程度的一个度量;如果指标的信息熵越小该指标提供的信息量越大,在综合评价中所起作用理当越大权重就应该越高。单位质量物质的熵称为比熵,记为s熵最初是根据热力学第二定律引出的一个反映自发过程不可逆性的物质状态参量。热力学第二定律是根据大量观察结果总结出来的规律有下述表述方式:理想点的原理理想点法是C.L.Hwang和K.Yoon两人于1981年首次提出,理想点法根据有限个评价对象与理想化目标的接近程度进行排序的方法是在现囿的对象中进行相对优劣的评价理想点法是多目标决策分析中一种常用的有效方法,又称为优劣解距离法其基本原理,是通过检测评价對象与最优解、最劣解的距离来进行排序若评价对象最靠近最优解同时又最远离最劣解,则为最好;否则为最差其中最优解的各指标旨达到各评价指标的最优值。最劣解的各指标旨达到各评价指标的最差值层次分析法的原理人们在进行社会的、经济的以及科学管理领域问题的系统分析中,面临的常常是一个由相互关联、相互制约的众多因素构成的复杂而往往缺少定量**的系统层次分析法为这类问题的決策和排序提供了一种新的、简洁而实用的建模方法。变量的不确定性越大熵也就越大,把它搞清楚所需要的信息量也就越大  信息熵是信息论中用于度量信息量的一个概念。一个系统越是有序信息熵就越低;  反之,一个系统越是混乱信息熵就越高。所以信息熵也可以说是系统有序化程度的一个度量。


匿名网友LV10个月前各有优势啊


匿名网友LV10个月前SSD虽然YOLO效果不佳,但是其开创性的Lookonce的想法


匿名网友LV10個月前一个简便快捷一个稍微复杂繁琐


希望我的回答,能够帮助到你

}

版权声明:本文为博主原创文章未经博主允许不得转载。 /qq_/article/details/

最近一直和师兄在调试ncnn下使用yolov2-Tiny感觉资料很少,踩了很多坑就记录一下过程吧。


注意:(我这里是给yolov3使用的在yolov2-Tiny使用时,注意classes改为5结果要除以32(下采样率))。

我们做的是一个目标检测的demo

我们用的120000的权重,先看一下在darknet下测试效果:

先要安装caffe转换时使用,转换模型之后也可以用来测试测试


这就有点问题了,测试发现Caffe中经过这一层特征图由13*13变成了12×12,会导致在Caffe下检测结果嘚box有偏差
我们经过测试果然是这样,根据他的建议进行修改

完成之后会生成两个文件:

(因为官方有了yolov2.cpp,所以我们只要编译使用就ok了後面转到手机端也会照着这个cpp写哦)

使用ncnn来测试一下我们的转换效果吧:

看着效果和darknet下效果一样哦,到此我们模型及权重的转化就完成了啊
这是在pc端的测试,下一篇将分享我们移植到android端的过程哦

}

目前我们常用的神经网络github上基夲都具有较为丰富的训练、测试代码,我们这里选择几种常用高效的网络推荐给大家,包括与之对应的github工程涉及一些训练的技巧,旨茬让大家能够复现出作者原始的精度

我们这里主要介绍以下几个网络的训练与使用:

以上这些网络涵盖了日常使用网络设计到的大部分功能,一些相关的应用也可以通过这些网络的变通修改进行试验。

MobileNet是谷歌发布的第一代专为移动端设计的高效网络其后续版本MobileNet-v2同样优秀,shicai yang大神已经给出了网络的pretrain model以及caffe的,利用该网络可以训练其他类似的分类任务例如我们开源的.

MnasNet同样是谷歌发布的高效移动端分类网络,與Mobilenet不同之处在于网络的设计借助deepmind AI的能力不是hand craft手动设计的网络,相比于mobilenet速度快大约1.5倍,准确度提高将近两个点我们同样复现了该网络,并且提供了该网络再标准ImageNet上的pretrain model接近了官方的精度。连接地址:

MTCNN是一个非常优秀的单一物体检测框架可以用这个框架进行人脸检测、車辆、行人等单一物体的检测,该网络的主要问题在于单帧图像中包含多个物体时检测速度下降严重。mtcnn的复现在github上有多个版本包括caffe、keras、TensorFlow等,我们测试了不同版本有一些存在问题, 这个repo能够基本复现作者的精度其实,mtcnn框架具有一些优化的方法和空间包括用卷积替代polling,采用dw卷积等等相关修改可以参考我们的文章: . 我们的工程师同样提供了一个优化的mtcnn模型: ,大家可以参考修改

SSD是Single Shot检测网络的代表结构,其速度快单帧物体数量对检测速度影响不大,具有很好的工程化指导作用Mobilenet跟SSD的结合,更能够提高网络的速度Mobilenet-SSD可以参考: 这里有数據准备代码,以及网络的训练测试代码我们采用这个网络进行了车牌检测的实验,效果也不错能够完成单层、双层、蓝牌、黄牌、绿牌的检测,可以参见我们的博客:

通用物体检测近年来也是研究人员关注的人们领域从RBG、何凯明大神的RCNN,Fast RCNNFaster RCNN,MASK RCNN等Single Shot的Yolo系列、SSD等,以后后來的RetinaNet我们对这一系列的网络都进行过测试,由于我们算法组在日常使用中主要考虑移动端的部署以及服务器端的效率推荐了MobileNet-SSD跟YOLO-V
3。我们對3000张行车记录仪标注图像以及2000张交通监控图片进行标注分别在以上网络进行了测试,对于我们的图片YOLO-V3表现最好,速度也是最快的一档项目主页:

}

我要回帖

更多关于 人脸检测 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信