<blockquote id="z3rns"><b id="z3rns"></b></blockquote>
<label id="z3rns"></label>

<output id="z3rns"></output>

  1. <tt id="z3rns"><pre id="z3rns"><dd id="z3rns"></dd></pre></tt>

  2. <listing id="z3rns"><i id="z3rns"></i></listing>
    <small id="z3rns"></small>
    <output id="z3rns"><pre id="z3rns"></pre></output>

      <input id="z3rns"></input>
      1. <blockquote id="z3rns"><th id="z3rns"></th></blockquote>
          1. <listing id="z3rns"></listing>
          2. <output id="z3rns"><pre id="z3rns"></pre></output>

            <var id="z3rns"><object id="z3rns"><noscript id="z3rns"></noscript></object></var>
            <acronym id="z3rns"><legend id="z3rns"><meter id="z3rns"></meter></legend></acronym>
              <input id="z3rns"><ins id="z3rns"></ins></input><dl id="z3rns"></dl>
              <dl id="z3rns"></dl>
            1. 您正在使用IE低版浏览器,为了您的雷锋网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
              人工智能 正文
              发私信给雷锋字幕组
              发送

              0

              2019 目标检测指南

              本文作者:雷锋字幕组 2019-08-12 10:52
              ?#21152;錚?#30446;标检测在视频监控、自动驾驶汽车、目标/人跟踪等领域得到了广泛的应用。在本文中,我们将了解目标检测?#24149;?#30784;知识,并回顾一些最常用的算法和一些全新的方法。

              目标检测是一种为了检测汽车、建筑物和人类等目标对象的计算机视觉技术,这些对象通常可以通过?#35745;?#25110;视频来识别。

              目标检测在视频监控、自动驾驶汽车、目标/人跟踪等领域得到了广泛的应用。在本文中,我们将了解目标检测?#24149;?#30784;知识,并回顾一些最常用的算法和一些全新的方法。

                目标检测的工作原理

              目标检测会定位图像中的对象,并在该对象周围绘制一个包围框。这过程通常分为两步:目标分类并确定类型,然后在该对象周围绘制一个框。我们之前已经讨论过图像分类,现在让我们来回顾一些用于目标检测的常见模?#22270;?#26500;:

              • R-CNN
              • Fast R-CNN
              • Faster R-CNN
              • Mask R-CNN
              • SSD(单点多框检测器)
              • YOLO (You Only Look Once)
              • 将目标视作一个点
              • 用于目标检测的数据增强策略


                R-CNN 模型

              该技术结合了两种主要方法:将大容量卷积神经网络应用于自底向上的区域方案中,对目标进行定位和?#25351;睿?#26377;监督的预训练。

              特征层次结构丰富,可以精确的进行目标检测和语义?#25351;?/span>https://arxiv.org/abs/1311.2524

              这是通过 domain-specific fine-tuning 来获得高性能提升。由于将区域(Regional)划分的建议与卷积神经网络相结合,这篇论文的作者将该算法命名为 R-CNN (具有 CNN 特征的区域)。

              2019 目标检测指南

              该模型先基于?#35745;?#25552;取出大约2000个自底向上的候选区域。然后使用一个大型CNN模型计算每个候选区域的特征向量。最后利用线性支持向量机 (SVMs)对每个区域进行分类。该模型在PASCAL VOC 2010上的平均精度达到53.7%。

              该模型的目标检测系统实现由三个模块组成。第一个模块负责生成分类独立的候选区域,这些区域是检测可用的候选数据集。第二个模块是一个大型卷积神经网络CNN模型,负责?#29992;?#20010;区域提取固定长度的特征向量。第三个模块是多类别SVM分类器 。

              2019 目标检测指南

              该模型使用selective search方法来生成候选区域集。根据颜色、?#35780;懟?#24418;状和大小选择搜索相?#39057;?#21306;域。在特征提取方面,该模型采用4096维特征向量,并将Caffe CNN实现应用于每个区域提案。将227×227 RGB图像通过5个卷积层和2个完全连通层进行正向传播,计算特征。本文所诠释的模型与之前PASCAL VOC 2012的结果相比,取得了30%相关的效果?#24917;?/span>

              R-CNN的一些缺点:

              • 训练是一个多阶段的流程。对卷积神经网络进行目标建议优化,将svm与ConvNet特征进?#24515;?#21512;,最后学习边界框回归器。

              • 模型训练在空间占用和时间消耗上代价都很高昂,因为VGG16这样的深度网络占用了大量?#30446;?#38388;。

              • 对象检测比较慢,因为它对每个对象建议执行一个ConvNet转发。

                Fast R-CNN 

              下文提出了一种基于区域卷积网络?#30446;?#36895;目标检测方法(Fast R-CNN)。

              快速R-CNNhttps://arxiv.org/abs/1504.08083

              它是用 Caffe通过Python和c++ 实现的。该模型在PASCAL VOC 2012上的平均精度为66%,而R-CNN的平均精度为62%。 

              2019 目标检测指南

              与R-CNN相比,Fast R-CNN具有:更高的平均精度值,单阶段训练特性,可更新所有网络层训练的特性,并且它也不需要磁盘存储来进行特征缓存。

              在其架构中,一个 Fast R-CNN接收的图像既作为输入也作为一组目标建议集。模?#25237;?#22270;像进行卷积和最大池化处理,生成卷积特征图,通过针对每个区域建议的兴趣池层区域?#29992;?#20010;特征图中提取出固定层的特征向量。

              接下来,将特征向量提供给完全连接的层,这些将?#31181;?#25104;两个输出层,其中一个为多个对象类生成softmax概?#20351;?#35745;,而另一个为每个对象类生成四个实值数字,而这4个数字就代表了每个对象包围框的位置。

                Faster R-CNN

              更快的 R-CNN:利用区域建议网络实现实时目标检测https://arxiv.org/abs/1506.01497

              本文提出了一种训练机制,该机制可交替进行区域建议任务的微调和目标检测的微调。

              2019 目标检测指南

              Faster R-CNN模型由两个模块组成:负责区域候选框生成的的深度卷积网络和使用产生的候选框的R-CNN检测器。区域建议网络以图像为输入,产生一系列矩形目标候选框。每个矩形目标框?#21152;?#23646;于某个类别的分数。

              2019 目标检测指南

                Mask R-CNN

              Mask R-CNN (https://arxiv.org/abs/1703.06870

              本文提出的模型是上述Faster R-CNN体?#21040;?#26500;的扩展,它还可以对人体姿势进行估计。

              2019 目标检测指南

              在这个模型中,目标通过标注的目标框和一个标注相同类别?#21335;?#32032;集合的语义?#25351;?#26631;签来对目标进行分类和定位。这个模型在Faster R-CNN?#24149;?#30784;上对每个?#34892;?#36259;区域添加了对?#25351;?#25513;膜的预测。Mask R-CNN产生两个输出:一个分类标签和一个目标框。

                SSD: 单点多框检测器

              这篇论文提出了使用单个深度神经网络来对图像中的目标进行检测的模型。该网络使用了应用于特征?#25104;?#30340;小卷积核为每个目标出现的区域进行打分。(论文地址:https://arxiv.org/abs/1512.02325

              2019 目标检测指南

              这种方法使用一个前馈式卷积神经网络,产生了一个边界框的集合以及对每个边界框所属类别进行打分。增加了卷积特征层以?#24066;?#32593;络能在多个尺度上进行特征检测。在这个网络模型中,每个特征图都和一组目标候选框相关联。下面的图像展示了SSD512的模型在动物,交通工具和家具数据上进行目标检测的表现。

              2019 目标检测指南  

              YOLO (You Only Look Once)

              You only look once,顾名思义,你只看一遍。这篇文章提出了一种使用单个神经网络一次运行即可预测物体边框与类别概率的方法,是单阶段目标检测模型的代表之一(与Faster R-CNN为代表的两阶段目标检测方法的区别)。

              You Only Look Once: Unified, Real-Time ObjectDetectionhttps://arxiv.org/abs/1506.02640

              YOLO 模型可以跑到每秒钟45帧的实时速度。YOLO 把图像目标检测视作回归问题,这使得它处理图像的流水线相当简单,这也是它速度很快的主要原因。

              YOLO 可以在不超过25秒?#26144;?#19979;实时处理视频流。在训练过程中,YOLO看到的是整张图像,因此在目标检测时可以考虑上下文信息。

              2019 目标检测指南

              在YOLO中,每个物体边框是使用整个图像的特征预测出来的。每一个边框的预测值有5个:x、y、w、h和置信度(confidence)。(x, y)代表边框中?#21335;?#23545;于每个网格的位置偏移,w和h代表物体相对于整张?#35745;南?#23545;宽度和高度。

              YOLO模型是使用卷积神经网络实现并在PASCAL VOC目标检测数据集上进行训练的。网络的卷积层用来提取特征,之后的全连?#30828;?#29992;于预测边框坐标和物体属于各个类别的概率。

              2019 目标检测指南

              YOLO网络的架构设计受到了用于图像分类的GoogLeNet(https://ai.google/research/pubs/pub43022)的启发。网络又24个卷积层和两个全连?#30828;恪OLO模型的主要问题是它对每个网格仅能够预测一个类别的物体,而且对较小的目标(比如鸟)的检测效果较差。

              2019 目标检测指南


              译者注 1:很多朋友对YOLO“划分网格”的操作不是很理解。请看上图最右的一个方块,这就是YOLO模型输出的原始结果——一个shape为7×7×30的特征图。7×7是原始的416×416尺寸的图像通过经过一系列的卷积、下采样和padding后得到的尺寸。换句话说,这7×7个网格各自对应着原图中的某一个区域。卷积层的通道数为30意味着每一个网格被预测出了30个数值,这三十个数值分别是这个网格内预测的两个候选框的(x, y, w, h, confidence)以及网格内物体可能属于的20个类(PASCAL VOC数据集包含20个类别的物体)。读者可能会疑惑:为什么预测了两个候选框却只预测了一次类别概率呢?这也就是我们上文提到的YOLO的缺点了:它对每个网格,确实只能预测一个类别的物体。


              YOLO在PASCAL VOC数据集上达到了63.4%的mAP,并且作者在原文中还提出了更小的版本——Fast YOLO。Fast YOLO在当时PASCAL数据集上最快的通用目标检测器,而且达到了52.7%的mAP指标。

              2019 目标检测指南

              译者注 2:截至2019年7月,YOLO的作者还提出了两个后续升级版本:YOLO9000(又称YOLOv2)和YOLOv3。YOLO9000将网络主干改为更快速的全卷积网络DarkNet-19,并引入了Faster R-CNN的anchor机制使得检测效果更?#36873;OLOv3?#24917;?#20102;损失函数计算方式、引入了特征金字塔并提出了高效的主干网络DarkNet-53。目前YOLOv3已成为目标检测最常用的算法之一。
              论文地址:YOLO9000: Better, Faster, Stronger(https://arxiv.org/abs/1612.08242
              YOLOv3: An Incremental Improvement(https://pjreddie.com/media/files/papers/YOLOv3.pdf

                CenterNet:将目标视作点

              这篇论文提出了一种将物体视作一个点的建模方式。它使用关键点估计来检测物体的中心点,并对物体的其他属性进行回归。这些属性包括:3D位置,人体姿势,朝向,尺寸等等。也就是说——使用CenterNet,物体的各种属性也作为网络的输出被一并回归出?#30784;enterNet成为了一?#25351;?#24555;、更准确?#24149;?#20110;边框回归的目标检测器。论文地址:https://arxiv.org/abs/1904.07850v2

              译者注 3:有另一篇目标检测论文与该论文?#36127;?#21516;时发布:CenterNet: Keypoint Triplets for Object Detection,其简称也是CenterNet。但本文提到的CenterNet都是指Objects as Points这篇工作。

              2019 目标检测指南

              那么这些属性究竟是如何回归得到的呢?在CenterNet模型中,原始图像被输入网络并得到一个热图(置信图),这个热图表示了可能存在物体中心的位置(热值的峰极有可能是出现物体中心点的位置)。除了这个热图以外,CenterNet模型的输出还有一些其他的通道,从各个通道取出置信图的峰值处的值,即可得到网络对这个物体各种属性值的预测。

              CenterNet在COCO将目标检测数据集上达到了45.1%的AP和1.4 fps的速度。下表为CenterNet与其他目标检测器的效果对?#21462;?/span>

              2019 目标检测指南

                用于目标检测的数据增强策略

              数据增强,即通过操作原始图像(如旋转、缩放等)来获得新的图像数据的过程。通过数据增强,往往可以达到更好的训练效果。

              这篇论文没有提出新的模型结构,而是提出了一些可以迁?#39057;?#20854;他目标检测数据集上的图像变换策略,这些策略经常被用在目标检测网络的训练中。论文地址:https://arxiv.org/abs/1906.11172v1

              2019 目标检测指南

              在该论文的模型中,训练时的增强策略包含N种操作。作者在模型中使用的增强方法包括改变颜色通道值、?#36127;?#21464;换或仅改变标注的物体边框中?#21335;?#32032;。

              通过在COCO数据集上的实验,作者发现使用优化的数据增强策略可以在mAP指标(mean average precision)上得到2.3%的提升,使得单模型可以达到50.7%的mAP。

                结论

              通过阅读本文,你应该已经对最近最常见的一般场景目标检测方法有所了解了。

              本文提到的一些论文中也包括他们的代码实现。各位不妨自己测试一下看看效果如何。

              直播预告 | AI 研习社邀您观看全网独家直播 IJCAI 2019

              今年,IJCAI(国际人工智能联合会议,International Joint Conferences on Artificial Intelligence)已于 8 月 10 日至 16 日在中国澳门隆重召开。作为人工智能领域最顶级的国际学术会议之一,IJCAI 的举办自然备受瞩目,预计将有超过 3000 名 AI 研究人员和专家来到中国澳门,共同?#25945;?#20154;工智能?#21335;?#29366;和未?#30784;?/span>

              今年,雷锋网作为 IJCAI 官方合作媒体,AI 研习社将全网独家直播 IJCAI 2019,同时,将会有更多来自第一现场的报道,敬请期待!

              直播地址:https://ai.yanxishe.com/page/meeting/47

              雷锋网雷锋网雷锋网(公众号:雷锋网)


              雷锋网原创文章,未经授权禁止转载。详情见转载须知

              2019 目标检测指南
              分享:

              文章点评:

              表情
              最新文章
              请填写申请人资料
              姓名
              电话
              邮箱
              微信号
              作品链接
              个人简介
              为了您的账户安全,请验证邮箱
              您的邮箱还未验证,完成可获20积分哟!
              请验证您的邮箱
              立即验证
              完善账号信息
              您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
              立即设置 ?#38498;?#20877;说
              <blockquote id="z3rns"><b id="z3rns"></b></blockquote>
              <label id="z3rns"></label>

              <output id="z3rns"></output>

              1. <tt id="z3rns"><pre id="z3rns"><dd id="z3rns"></dd></pre></tt>

              2. <listing id="z3rns"><i id="z3rns"></i></listing>
                <small id="z3rns"></small>
                <output id="z3rns"><pre id="z3rns"></pre></output>

                  <input id="z3rns"></input>
                  1. <blockquote id="z3rns"><th id="z3rns"></th></blockquote>
                      1. <listing id="z3rns"></listing>
                      2. <output id="z3rns"><pre id="z3rns"></pre></output>

                        <var id="z3rns"><object id="z3rns"><noscript id="z3rns"></noscript></object></var>
                        <acronym id="z3rns"><legend id="z3rns"><meter id="z3rns"></meter></legend></acronym>
                          <input id="z3rns"><ins id="z3rns"></ins></input><dl id="z3rns"></dl>
                          <dl id="z3rns"></dl>
                        1. 快乐十分钟开奖结果
                          <blockquote id="z3rns"><b id="z3rns"></b></blockquote>
                          <label id="z3rns"></label>

                          <output id="z3rns"></output>

                          1. <tt id="z3rns"><pre id="z3rns"><dd id="z3rns"></dd></pre></tt>

                          2. <listing id="z3rns"><i id="z3rns"></i></listing>
                            <small id="z3rns"></small>
                            <output id="z3rns"><pre id="z3rns"></pre></output>

                              <input id="z3rns"></input>
                              1. <blockquote id="z3rns"><th id="z3rns"></th></blockquote>
                                  1. <listing id="z3rns"></listing>
                                  2. <output id="z3rns"><pre id="z3rns"></pre></output>

                                    <var id="z3rns"><object id="z3rns"><noscript id="z3rns"></noscript></object></var>
                                    <acronym id="z3rns"><legend id="z3rns"><meter id="z3rns"></meter></legend></acronym>
                                      <input id="z3rns"><ins id="z3rns"></ins></input><dl id="z3rns"></dl>
                                      <dl id="z3rns"></dl>
                                    1. <blockquote id="z3rns"><b id="z3rns"></b></blockquote>
                                      <label id="z3rns"></label>

                                      <output id="z3rns"></output>

                                      1. <tt id="z3rns"><pre id="z3rns"><dd id="z3rns"></dd></pre></tt>

                                      2. <listing id="z3rns"><i id="z3rns"></i></listing>
                                        <small id="z3rns"></small>
                                        <output id="z3rns"><pre id="z3rns"></pre></output>

                                          <input id="z3rns"></input>
                                          1. <blockquote id="z3rns"><th id="z3rns"></th></blockquote>
                                              1. <listing id="z3rns"></listing>
                                              2. <output id="z3rns"><pre id="z3rns"></pre></output>

                                                <var id="z3rns"><object id="z3rns"><noscript id="z3rns"></noscript></object></var>
                                                <acronym id="z3rns"><legend id="z3rns"><meter id="z3rns"></meter></legend></acronym>
                                                  <input id="z3rns"><ins id="z3rns"></ins></input><dl id="z3rns"></dl>
                                                  <dl id="z3rns"></dl>
                                                1. 360彩票网 排列五走势图带坐标体彩 湖北11选5遗漏官网 极速飞艇技巧攻略 福建31选7非凡走试图 11选5组选 江西快三在线计划 cs、00500、net:波叔一波中特 为什么北单会返奖 246好彩天天免费资枓大全 贵州11选五助手app下载 2017排列三走势图 莱切斯特城历史记录 河南快三走势图 彩票11选5模拟器