YOLOv2检测过程的Tensorflow实现

  • 时间:
  • 浏览:3
  • 来源:uu快3手机版ios_uu快3app邀请码_在线官网

YOLOv2采用了有有5个新的基础模型(形态学 提取器),称为Darknet-19,包括19个卷积层和5个maxpooling层,如下图。Darknet-19与VGG16模型设计原则是一致的,主要采用3*3卷积,采用2*2的maxpooling层就让,形态学 图维度降低2倍,而并肩将形态学 图的channles增加两倍。

https://pan.baidu.com/s/1ZeT5HerjQxyUZ_L9d3X52w

主要特点有:



·因此 ,网络下采样是32倍,原本也使得网络还需要接收任意尺寸的图片,什么都有有yolo2有了Multi-Scale Training多尺度训练的改进:输入图片resize到不同的尺寸(论文中取舍320,352...,20085个尺寸,下采样32倍对应10*10~19*19的形态学 图)。每训练10个epoch,将图片resize到原本不同的尺寸再训练。原本有有5个模型还需要适应不同的输入图片尺寸,输入图像大(2008*2008)精度高传输速率稍慢、输入图片小(320*320)精度稍低传输速率快,增加了模型对不同尺寸图片输入的鲁棒性。

(1)输入图片进入darknet19网络得到形态学 图,并进行解码得到:xmin xmax表示的边界框、置信度、类别概率

(3)绘制筛选后的边界框

1、model_darknet19.py:yolo2网络模型——darknet19。

(3)采用跨层连接Fine-Grained Features

https://pan.baidu.com/s/1ZeT5HerjQxyUZ_L9d3X52w

1、car.jpg:输入的待检测图片

(1)去掉 了全连接层fc

4、Main.py:YOLO_v2主函数



一、完整版代码解读如下:

还需要看过,跟yolo1对比,yolo2引入anchor后检测精度有了提升(car和person的类别置信度高了什么都有有),因此 每个边界框对应一组类别概率外理了yolo1中多个目标中心点落在同有有5个cell只能检测有有5个物体的问題(左侧有有5个person都检测出来了)。相比yolo1还是有一定提升的。

(2)筛选解码后的回归边界框——NMS

请在yolo2检测模型下载模型,并装到 yolo2_model文件夹下

Python3 + Tensorflow1.5 + OpenCV-python3.3.1 + Numpy1.13

windows和ubuntu环境都还需要

本文来自云栖社区公司公司合作 伙伴“大数据挖掘DT机器学习”,了解相关信息还需要关注“大数据挖掘DT机器学习”。

原文发布时间为:2018-10-16

·原本大大减少了网络的参数,当时人理解这是yolo2还需要增加每个cell产生边界框以及每个边界框要能单独的对应一组类别概率的原因分析分析着。



IOU计算难点在于计算交集大小:首很难判断是是否交集,因此 再计算IOU。计算就让有有有5个trick,只计算交集每段的左上角和右下角坐标即可,通过取max和min计算:

1、model_darknet19.py:yolo2网络模型——darknet19

2、decode.py:解码darknet19网络得到的参数

3、utils.py:功能函数,涵盖:预外理输入图片、筛选边界框NMS、绘制筛选后的边界框

4、config.py:配置文件,涵盖anchor尺寸、coco数据集的200个classes类别名称

5、Main.py:YOLO_v2主函数,对应多多线程 有有有5个步骤:

(1)输入图片进入darknet19网络得到形态学 图,并进行解码得到:xmin xmax表示的边界框、置信度、类别概率

(2)筛选解码后的回归边界框——NMS

(3)绘制筛选后的边界框

6、Loss.py:Yolo_v2 Loss损失函数(train就让用,预测就让越来越 调用此多多线程 )

(1)IOU值最大的那个anchor与ground truth匹配,对应的预测框用来预测你這個ground truth:计算xywh、置信度c(目标值为1)、类别概率p误差。

(2)IOU小于某阈值的anchor对应的预测框:只计算置信度c(目标值为0)误差。

(3)剩下IOU大于某阈值但有的是max的anchor对应的预测框:丢弃,不计算任何误差。

7、yolo2_data文件夹:涵盖待检测输入图片car.jpg、检测后的输出图片detection.jpg、coco数据集200个类别名称coco_classes.txt

这里着重介绍NMS中IOU计算最好的最好的办法:yolo2中计算IOU只考虑形态学 ,先将anchor与ground truth的中心点都偏移到同一位置(cell左上角),因此 计算出对应的IOU值。

训练好的模型请在yolo2检测模型下载

·原本提升模型收敛传输速率,因此 还需要起到一定正则化效果,降低模型的过拟合。

·YOLOv2的输入图片大小为416*416,经过5次maxpooling(下采样32倍)就让得到13*13大小的形态学 图,并以此形态学 图采用卷积做预测。原本会原因分析分析着小的目标物体经过5层maxpooling就让形态学 基本越来越 了。什么都有有yolo2引入passthrough层:前面的形态学 图维度是后面 的形态学 图的2倍,passthrough层抽取前面层的每个2*2的局部区域,因此 将其转化为channel维度,对于26*26*512的形态学 图,经passthrough层外理就让就变成了13*13*2048的新形态学 图,原本就还需要与后面 的13*13*1024形态学 图连接在并肩形成13*13*20072大小的形态学 图,因此 在此形态学 图基础上卷积做预测。作者在后期的实现中借鉴了ResNet网络,有的是直接对高分辨形态学 图外理,什么都有有增加了有有5个后面 卷积层,先采用6有有5个1*1卷积核进行卷积,因此 再进行passthrough外理,原本26*26*512的形态学 图得到13*13*256的形态学 图。这是否实现上的有有5个小细节。

(2)在每个卷积层后面 都加入有有5个BN层并不再使用droput

2、decode.py:解码darknet19网络得到的参数.

对应多多线程 有有有5个步骤:

2、detected.jpg:检测结果可视化

3、utils.py:功能函数,涵盖:预外理输入图片、筛选边界框NMS、绘制筛选后的边界框。