[发明专利]一种基于深度学习的全景图像融合方法在审
申请号: | 201710150818.5 | 申请日: | 2017-03-14 |
公开(公告)号: | CN106952220A | 公开(公告)日: | 2017-07-14 |
发明(设计)人: | 不公告发明人 | 申请(专利权)人: | 长沙全度影像科技有限公司 |
主分类号: | G06T3/00 | 分类号: | G06T3/00;G06T3/40;G06T5/50;G06N3/04 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 410205 湖南省长沙市高新开发*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于深度学习的全景图像融合方法,涉及图像拼接技术领域,包括如下步骤S1构建深度学习训练数据集;S2构建卷积神经网络模型;包括S201、S202、S203;S201构建一个深度卷积神经网络模型;S202设置卷积采样层参数;S203利用训练数据集训练深度卷积神经网络;S3基于测试数据集和训练好的深度卷积神经网络模型,得到测试数据集的融合区域;本发明无需手工特征选取,能够更加全面深层地表达图像,实现多个抽象层次上的图像语义表征,提高了图像融合的精度。 | ||
搜索关键词: | 一种 基于 深度 学习 全景 图像 融合 方法 | ||
【主权项】:
一种基于深度学习的全景图像融合方法,其特征在于,包括如下步骤:S1:构建深度学习训练数据集;选取作为训练使用的两幅待融合鱼眼图像的重叠区域xe1和xe2以及由这两幅鱼眼图像融合之后形成的全景图像的理想融合区域ye,构建待融合图像与全景图像块对的训练数据集{xe1,xe2,ye};S2:构建卷积神经网络模型;包括S201、S202、S203;S201:构建一个深度卷积神经网络模型;S202:设置卷积采样层参数;S203:利用训练数据集训练深度卷积神经网络;S3:基于测试数据集和训练好的深度卷积神经网络模型,得到测试数据集的融合区域;所述S1包括S101、S102、S103、S104;S101:生成图像金字塔;对给定的两幅待融合鱼眼图像以及全景图像进行高斯函数平滑、下采样操作生成一系列具有不同分辨率的图像集合,即图像金字塔;获取层级为Gn+1层的高斯金字塔图像的具体实现如下:第一步:对输入图像I进行高斯内核卷积,本实施例中采用的是长度为5的高斯卷积核;第二步:将第一步得到的图像中所有偶数行和列去除,得到的图像即为Gn+1层的图像,计算公式如下:Gn+1(i,j)=Σm=-22Σn=-22w(m,n)Gn(2i+m,2j+n)]]>其中,w(m,n)=w(m)*w(n),并且a是常量;第三步:通过对输入图像Gn层,即原始图像,不停迭代以上两个步骤就会得到整个高斯金字塔图像;S102:生成训练数据集的输入数据;从两幅待融合鱼眼图像中生成的两个图像金字塔的每一层提取重叠区域其中l表示金字塔的第l层,将这两个图像金字塔中第I层的重叠区域像素值进行线性加权平均组合,得到初始融合区域并将这个区域内的像素进行最大最小归一化处理,使每一个像素取值范围在[0,1]之间,将这两个图像金字塔中所有层的初始融合区域级联起来形成训练样本其中c表示金字塔的层数;S103:生成训练数据集的理想输出;从全景图像中生成的图像金字塔的每一层提取理想融合区域并将这个区域内的像素进行最大最小归一化处理,使每一个像素取值范围在[0,1]之间,将该金子塔中所有层的融合区域串联起来得到训练样本S104:获取训练数据集;从初始融合区域xe和理想融合区域ye中分别抽取像素大小一直的多分辨融合块其中i=1,2,…,N,得到N对像素位置一致的多分辨融合块对的训练数据集合
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于长沙全度影像科技有限公司,未经长沙全度影像科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710150818.5/,转载请声明来源钻瓜专利网。