首页 一种基于YoloV3深度学习的双目快速距离测量方法

一种基于YoloV3深度学习的双目快速距离测量方法

举报
开通vip

一种基于YoloV3深度学习的双目快速距离测量方法(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号CN111239684A(43)申请公布日2020.06.05(21)申请号202010053241.8(22)申请日2020.01.17(71)申请人中航华东光电(上海)有限公司地址201114上海市闵行区新骏环路115号1号楼3层(72)发明人郎立国 康涛 李旭 张阳 (51)Int.Cl.G01S5/16(2006.01)G01C11/00(2006.01)G06N3/04(2006.01)G06N3/08(2006.01)权利要求书1...

一种基于YoloV3深度学习的双目快速距离测量方法
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号CN111239684A(43)申请公布日2020.06.05(21)申请号202010053241.8(22)申请日2020.01.17(71)申请人中航华东光电(上海)有限公司地址201114上海市闵行区新骏环路115号1号楼3层(72)发明人郎立国 康涛 李旭 张阳 (51)Int.Cl.G01S5/16(2006.01)G01C11/00(2006.01)G06N3/04(2006.01)G06N3/08(2006.01)权利要求 关于书的成语关于读书的排比句社区图书漂流公约怎么写关于读书的小报汉书pdf 1页说明书6页附图6页(54)发明名称一种基于YoloV3深度学习的双目快速距离测量方法(57)摘要本发明公开了一种基于YoloV3深度学习的双目快速距离测量方法,包含以下步骤:A、图像采集;B、双目图像校正;C、目标识别定位;D、立体匹配与视差计算;E、计算实际距离,本发明提出一中基于Yolov3的深度学习的双目快速距离测量方法,在图像校正后,先通过Yolov3进行性目标识别定位,识别出目标并且定位出目标在图像中的位置及所占用的图片大小,提取目标图片,然后再进行双目匹配,大大减少目标匹配的计算量,达到实时距离测量的目的。CN111239684ACN111239684A权 利 要 求 书1/1页1.一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,包含以下步骤:A、图像采集;B、双目图像校正;C、目标识别定位;D、立体匹配与视差计算;E、计算实际距离。2.根据权利要求1所述的一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,所述步骤A具体是:图像采集模块从左右摄像头中采集图片,作为测距系统的输入。3.根据权利要求1所述的一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,所述步骤B包括相机标定和双目校正。4.根据权利要求1所述的一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,所述步骤C通过YoloV3算法目标识别定位算法,找出目标图像在分别在左右图形中的位置与大小。5.根据权利要求4所述的一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,所述YoloV3算法采用单独的CNN模型实现端到端的目标检测,对输入图像直接预测目标的类别与位置。6.根据权利要求1所述的一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,所述步骤D具体是:目标识别定位后对识别出来的左右目标图像进行立体匹配与视差计算,立体匹配完成匹配左右摄像机拍摄的图像的相同特征,并得到视差图,视差值是匹配是左右目标图像相同特征点在x坐标轴上的差值。7.根据权利要求6所述的一种基于YoloV3深度学习的双目快速距离测量方法,其特征在于,所述立体匹配算法选择SGBM立体匹配算法。2CN111239684A说 明 书1/6页一种基于YoloV3深度学习的双目快速距离测量方法技术领域[0001]本发明涉及图像处理技术领域,具体是一种基于YoloV3深度学习的双目快速距离测量方法。背景技术[0002]目前视觉测距方法主要有单目测距和双目测距方法。单目测距,先通过图像匹配进行目标识别,再通过目标在图像中的大小去估算目标距离。这就要求在估算距离之前首先对目标进行准确识别,准确识别是准确估算距离的第一步。要做到这一点,就需要建立维护样本特征数据库,保证这个数据库包含待识别目标的全部特征数据。[0003]双目摄像头的原理与人眼相似,人眼能够感知物体的远近,是由于两只眼睛对同一个物体呈现的图像存在差异,也称“视差”。物体距离越远,视差越小;反之,视差越大。[0004]单目系统的优势在于成本较低,对计算资源的要求不高,系统结构相对简单;缺点是:(1)需要不断更新和维护一个庞大的样本数据库,才能保证系统达到较高的识别率;(2)距离并非真正意义上的测量,准确度较低。[0005]双目系统优势:(1)成本比单目系统要高,但尚处于可接受范围内,并且与激光雷达等 方案 气瓶 现场处置方案 .pdf气瓶 现场处置方案 .doc见习基地管理方案.doc关于群访事件的化解方案建筑工地扬尘治理专项方案下载 相比成本较低;(2)直接利用视差计算距离,精度比单目高;(3)无需维护样本数据库,因为对于双目没有样本的概念。[0006]双目系统的难点:(1)计算复杂度高。该方法需要逐像素匹配,为保证匹配结果的鲁棒性,需要在算法中增加大量的错误剔除策略,计算量较大,很难实现实时测量。(2)对环境光照非常敏感。双目立体视觉法依赖环境中的自然光线采集图像,而由于光照角度变化、光照强度变化等环境因素的影响,拍摄的两张图片亮度差别会比较大,这会对匹配算法提出很大的挑战。(3)相机基线限制了测量范围。测量范围和基线(两个摄像头间距)关系很大:基线越大,测量范围越远;基线越小,测量范围越近。所以基线在一定程度上限制了该深度相机的测量范围。发明内容[0007]本发明的目的在于提供一种基于YoloV3深度学习的双目快速距离测量方法,以解决上述背景技术中提出的问 快递公司问题件快递公司问题件货款处理关于圆的周长面积重点题型关于解方程组的题及答案关于南海问题 。[0008]为实现上述目的,本发明提供如下技术方案:[0009]一种基于YoloV3深度学习的双目快速距离测量方法,包含以下步骤:[0010]A、图像采集;[0011]B、双目图像校正;[0012]C、目标识别定位;[0013]D、立体匹配与视差计算;[0014]E、计算实际距离。[0015]作为本发明的进一步方案:所述步骤A具体是:图像采集模块从左右摄像头中采集3CN111239684A说 明 书2/6页图片,作为测距系统的输入。[0016]作为本发明的进一步方案:所述步骤B包括相机标定和双目校正。[0017]作为本发明的进一步方案:所述步骤C通过YoloV3算法目标识别定位算法,找出目标图像在分别在左右图形中的位置与大小。[0018]作为本发明的进一步方案:所述YoloV3算法采用单独的CNN模型实现端到端的目标检测,对输入图像直接预测目标的类别与位置。[0019]作为本发明的进一步方案:所述步骤D具体是:目标识别定位后对识别出来的左右目标图像进行立体匹配与视差计算,立体匹配完成匹配左右摄像机拍摄的图像的相同特征,并得到视差图,视差值是匹配是左右目标图像相同特征点在x坐标轴上的差值。[0020]作为本发明的进一步方案:所述立体匹配算法选择SGBM立体匹配算法。[0021]与现有技术相比,本发明的有益效果是:本发明提出一中基于Yolov3的深度学习的双目快速距离测量方法,在图像校正后,先通过Yolov3进行性目标识别定位,识别出目标并且定位出目标在图像中的位置及所占用的图片大小,提取目标图片,然后再进行双目匹配,大大减少目标匹配的计算量,达到实时距离测量的目的。附图说明[0022]图1为双目测距原理图。[0023]图2为双目测距系统处理 流程 快递问题件怎么处理流程河南自建厂房流程下载关于规范招聘需求审批流程制作流程表下载邮件下载流程设计 图。[0024]图3为Yolov3的深度学习的双目测距系统处理流程图。[0025]图4为双目图像校正流程图。[0026]图5为目标识别定位图。[0027]图6为YoloV3识别定位原理图。[0028]图7为YoloV3模型结构图。[0029]图8为Convolutional层结构图。[0030]图9为Residual层结构图。[0031]图10为目标边界框图。[0032]图11为目标识别定位流程图。[0033]图12为目标识别定位效果图。具体实施方式[0034]下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。[0035]实施例1:请参阅图1-12,本发明实施例中,一种基于YoloV3深度学习的双目快速距离测量方法,包含以下步骤:[0036]A、图像采集;图像采集模块从左右摄像头中采集图片,作为测距系统的输入;[0037]B、双目图像校正;图像采集模块采集图像后,对双目图像进行校正,双目图像校正流程如图4所示;4CN111239684A说 明 书3/6页[0038]相机标定:摄像头由于光学透镜的特性使得成像存在着径向畸变,由于装配方面的误差,传感器与光学镜头之间并非完全平行,成像存在切向畸变,所以需要对相机进行标定。单个摄像头的定标主要是计算出摄像头的内参(焦距f和成像原点cx,cy、畸变参数))以及外参(标定物的世界坐标)。而双目摄像头定标不仅要得出每个摄像头的内部参数,还需要通过标定来测量两个摄像头之间的相对位置(即右摄像头相对于左摄像头的旋转矩阵R、平移向量t)。相机标定一般只需要标定一次,标定完成后,保存内参数据及外参数据供以后使用。[0039]双目校正:双目校正是根据摄像头定标后获得的单目内参数据(焦距、成像原点、畸变系数)和双目相对位置关系(旋转矩阵和平移向量),分别对左右视图进行消除畸变和行对准,使得左右视图的成像原点坐标一致、两摄像头光轴平行、左右成像平面共面、对极线行对齐。这样一幅图像上任意一点与其在另一幅图像上的对应点就必然具有相同的行号,只需在该行进行一维搜索即可匹配到对应点。[0040]关于双目校正的具体理论和方法采用成熟的技术,不是本发明重点,不再赘述。[0041]C、目标识别定位;双目图像校正后,分别对左右图像进行目标识别定位。如图5所示,通过目标识别定位算法,找出目标图像在分别在左右图形中的位置与大小,即图中的L_TAG_IMG和R_TAG_IMG,然后对L_TAG_IMG和R_TAG_IMG进行双目匹配,因为L_TAG_IMG和R_TAG_IMG只是原图的一小部分,所以会极大减少双目匹配计算量;[0042]目标识别定位是具有挑战性的计算机视觉任务,其可以看成图像分类与定位的结合,给定一张图片,要能够识别出图片的目标并给出其位置。YoloV3仅使用一个CNN网络直接预测不同目标的类别与位置,结构简单速度快,比Fast R-CNN快100倍,图像输入分辨率为416x416时处理速度可以达到29帧/秒,可以达到实时处理,所以本文选择YoloV3深度学习进行目标识别定位。[0043]YOLOv3输入图像典型分辨率可以为608X608,416x416,320X320,图像分辨率越高,识别精度越高,计算花费时间越长,综合考虑我们选择输入图像典型分辨率为416*416,兼顾速度和识别精确度。[0044]YoloV3算法采用单独的CNN模型实现端到端的目标检测,对输入图像直接预测目标的类别与位置。[0045]YoloV3的CNN网络将输入的图片分割成S×S网格(实际上是通过卷积下采样得到S×S网格,这里为了便于说明,描述为将输入的图片分割成S×S网格),然后每个单元格负责去检测那些中心点落在该格子内的目标,如图6所示,可以看到六角形这个目标的中心落在图中橙色单元格内,那么该单元格负责预测这个六角形。每个单元格会预测B(YOLOv3通过聚类算法得到了3组先验框,即预训练得到的3组默认预设边界框,称之为锚点,所以B取值为3)个预设边界框的预测值(tx,ty,tw,th,pO,p1,p2,…,pc),其中(tx,ty,tw,th)为预测边界框的大小与位置(实际上为中心偏移量以及宽高缩放比),pO为预测目标边界框内包含目标的概率,(p1,p2,…,pc)为预测边界框对应c个目标类别的概率。[0046]每个单元格需要预测(B×(5+C))个值。如果将输入图片划分为S×S网格,那么最终预测值为S×S×(B×(5+C))大小的张量。[0047]因为目标物体离摄像头的距离是变化的,目标离摄像头越近,目标成像尺寸就越大,距离越远,目标成像尺寸越小,为了能够更好的识别定位大尺寸和小尺寸的成像目标,5CN111239684A说 明 书4/6页YOLOv3在三个尺度等级上进行预测,通过分别将输入图像的尺寸下采样32、16、8来实现,即将图片划分为三种网格,如果输入图像尺寸为416*416,划分为三种特征图即三种S×S的网格,分别为13×13网格、26×26网格、52×52网格,其中13×13网格可以识别成像尺寸比较大的目标,26×26网格可以识别成像尺寸中等的目标,52×52网格可以识别成像尺寸比较小的目标。[0048]本发明中,假设只需要测量一种目标的距离,目标类别为1,即c为1,13×13网格预测值为13×13×(3×(5+1))大小的张量,26×26网格预测值为13×13×(3×(5+1))大小的张量,52×52网格预测值为52×52×(3×(5+1))大小的张量,最后YoloV3分析上面所有的预测值概率,得到最终目标的位置信息与大小信息。[0049]YOLOv3采用Darknet-53的网络结构,其模型结构如图7所示,网络主要是由一系列的1x1和3x3的Convolutional层以及Residual层组成。[0050]其中,Convolutional层是Darknet-53网络基本单元,由conv卷积层、BN层、LeakyReLU层组成,其结构如图8所示。Residual层为darknet-53残差模块,其结构如图9所示,这里使用残差的结构的好处:(1)深度模型一个关键的点就是能否正常收敛,使用残差结构能保证网络结构在很深的情况下,仍能收敛。(2)网络越深, 关于同志近三年现实表现材料材料类招标技术评分表图表与交易pdf视力表打印pdf用图表说话 pdf 达的特征越好,可以提升目标识别定位的效果。[0051]从图7中可以看到,在第86层,将第61层和第85层进行了张量拼接,在第98层,将第36层和第97层进行了张量拼接,其中第61层为和第36层为浅层特征,第85层和第97层为深层特征,这里同时利用了深层和浅层特征,进一步提高了网络的效果。网络最后预测三种特征图,分别13×13网格特征图、26×26网格特征图、52×52网格特征图,我们这里只需要识别一种目标,所以13×13网格特征图预测张量尺寸为13×13×(3×(5+1)),26×26网格特征图预测张量尺寸为26×26×(3×(5+1)),52×52网格特征图预测预测张量尺寸为52×52×(3×(5+1))。然后根据概率最大值得到最终预测值。[0052]YoloV3得到最终预测值(tx,ty,tw,th,pO,p1,p2,…,pc)后,因为得到的(tx,ty,tw,th)实际上为网络预测的边界框中心偏移量以及宽高缩放比,所以还需要计算出目标边界框。计算原理如图10所示,图中虚线矩形框为预设边界框即锚点,实线矩形框为通过网络预测的偏移量计算得到的预测目标边界框。其中(pw,ph)为预设边界框在特征图上的宽和高,(tx,ty,tw,th)分别为网络预测的边界框中心偏移量以及宽高缩放比,(bx,by,bw,bh)为最终预测的目标边界框。从预设边界框到最终预测目标边界框的公式如式(5)、式(6)、式(7)和式(8),其中σ(x)函数是sigmoid函数,其目的是将预测偏移量缩放到0到1之间。[0053]bx=σ(tx)+cx=sigmoid(tx)+cx  (5)[0054]by=σ(ty)+cy=sigmoid(ty)+cy  (6)[0055][0056][0057]因为网络预测目标边界框坐标为(bx,by,bw,bh),(bx,by)为预测目标边界框的中心坐标,(bw,bh)为目标边界框的宽和高,所以目标左上角位置(xta,yta)可以由(bx,by,bw,bh)通过式(9)和式(10)计算得到。[0058]xta=bx-(bw/2)  (9)6CN111239684A说 明 书5/6页[0059]yta=by-(bh/2)  (10)[0060]YOLOv3训练采用的损失函数如式11,其主要分为三个部分:目标置信度损失Lconf(o,c),目标分类损失Lcla(O,C),目标定位偏移量损失Lloc(l,g),其中λ1、λ2、λ3是平衡系数。[0061]L(O,o,C,c,l,g)=λ1Lconf(o,c)+λ2Lcla(O,C)+λ3Lloc(l,g)  (11)[0062]目标置信度可以理解为预测目标矩形框内存在目标的概率,目标置信度损失采用的是二值交叉熵损失(Binary Cross Entropy),其中oi∈{0,1},表示预测目标边界框i中是否真实存在目标,0表示不存在,1表示存在。表示预测目标矩形框i内是否存在目标的Sigmoid概率(将预测值ci通过sigmoid函数得到)。[0063][0064][0065]目标类别损失同样采用的是二值交叉熵损失,其中,Oij∈{0,1}表示预测目标边界框i中是否真实存在第j类目标,0表示不存在,1表示存在。表示网络预测目标边界框i内存在第j类目标的Sigmoid概率(将预测值Cij通过sigmoid函数得到)。[0066][0067][0068]目标定位损失采用的是真实偏差值与预测偏差值差的平方和,其中表示预测矩形框坐标偏移量(注意YoloV3网络预测的是偏移量,不是直接预测坐标),表示与之匹配的box与默认框之间的坐标偏移量,(bx,by,bw,bh)为预测的目标矩形框参数,(cx,cy,cw,ch)为默认矩形框参数,(gx,gy,gw,gh)为与之匹配的真实目标矩形框参数,这些参数都是映射在预测特征图上的。[0069][0070][0071][0072][0073][0074]目标识别定位分为训练模型和目标识别定位两个部分,其流程如图11所示。[0075]训练模型:采集待测目标图像(为了提高识别效果,尽量采集不同光照条件、不同背景条件、不同角度、不同距离的目标图像,图像采集尽量多,最好不少于10000张),然后进行训练,得到训练后的模型特征。[0076]目标识别定位:首先读入经过校正的图像,图像分辨率转换为416x416,然后读取模型特征,进行目标识别定位,最后得到目标类型与位置。[0077]利用YoloV3定位识别算法对目标进行识别定位,输入原图像即可通过算法获得目标图像在原图中的位置信息及宽度高度信息。定位效果图如图12所示,对L_REC_IMG目标识7CN111239684A说 明 书6/6页别定位,定位出目标图片L_TAG_IMG,在原图L_REC_IMG中的位置(xlta,ylta),宽度为wlta,高度为hlta,对R_REC_IMG目标识别定位,定位出目标图片R_TAG_IMG,在原图R_REC_IMG中的位置(xrta,yrta),宽度为wrta,高度为hrta。[0078]D、立体匹配与视差计算;目标识别定位后对识别出来的左右目标图像进行立体匹配与视差计算,立体匹配完成匹配左右摄像机拍摄的图像的相同特征,并得到视差图,视差值是匹配是左右目标图像相同特征点在x坐标轴上的差值,例如如图12中的六角形目标的每个角都是特征点。得到视差图后可通过三角相似的原理得到目标物体的距离。[0079]立体匹配算法主要有SAD匹配算法、BM算法、SGBM算法、GC算法等算法。SGBM算法是一种全局匹配算法,GC算法精度最高,但是速度最慢;SAD算法、BM算法精度比较差,不适合实际工程应用;所以这里选择SGBM立体匹配算法。[0080]本文首先利用YoloV3算法对校正后的左右摄像机拍摄的图像进行目标识别定位,如图12所示,对L_REC_IMG目标识别定位,定位出目标图片L_TAG_IMG,对R_REC_IMG目标识别定位,定位出目标图片R_TAG_IMG;然后利用SGBM算法对识别出来的目标图像L_TAG_IMG和R_REC_IMG进行立体匹配,可以得到视差xltaoff-xrtaoff。由于目标所占的图像只是原始图像的一小部分,如图12中识别出来的目标图像L_TAG_IMG和R_TAG_IMG,再利用SGBM算法对识别出来的目标图像L_TAG_IMG和R_TAG_IMG进行立体匹配,因为目标图像L_TAG_IMG和R_TAG_IMG是从原图像切割出的一部分,可以大大减少计算时间,达到实时处理的目的。[0081]因为我们计算距离需要的目标视差是相对于原图L_REC_IMG和R_REC_IMG,即xl-xr,而通过立体匹配算法得到的视差为xltaoff-xrtaoff,因为识别的图像L_TAG_IMG在原图L_REC_IMG中的位置(xlta,ylta),识别的图像R_TAG_IMG在原图R_REC_IMG中的位置(xrta,yrta),所以最终视差为[0082]xl-xr=(xlta+xltaoff)-(xrta+xrtaoff)=(xlta-xrta)+(xltaoff-xrtaoff)(21)[0083]E、计算实际距离:最终计算出的视差d=xl-xr,然后将即d带入公式(4)即可计算出目标实际距离。[0084]对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。[0085]此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。8CN111239684A说 明 书 附 图1/6页图1图2图39CN111239684A说 明 书 附 图2/6页图4图510CN111239684A说 明 书 附 图3/6页图611CN111239684A说 明 书 附 图4/6页图7图8图912CN111239684A说 明 书 附 图5/6页图10图1113CN111239684A说 明 书 附 图6/6页图1214
本文档为【一种基于YoloV3深度学习的双目快速距离测量方法】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
该文档来自用户分享,如有侵权行为请发邮件ishare@vip.sina.com联系网站客服,我们会及时删除。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。
本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。
网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
下载需要: ¥17.4 已有0 人下载
最新资料
资料动态
专题动态
is_808969
暂无简介~
格式:pdf
大小:709KB
软件:PDF阅读器
页数:0
分类:生产制造
上传时间:2018-07-18
浏览量:130