[发明专利]一种融合深度特征和语义邻域的自动图像标注方法有效
申请号: | 201610585022.8 | 申请日: | 2016-07-22 |
公开(公告)号: | CN106250915B | 公开(公告)日: | 2019-08-09 |
发明(设计)人: | 柯逍;周铭柯 | 申请(专利权)人: | 福州大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 福州元创专利商标代理有限公司 35100 | 代理人: | 蔡学俊 |
地址: | 350108 福建省福州市*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及一种融合深度特征和语义邻域的自动图像标注方法:针对传统图像标注方法中人工选取特征费时费力,以及传统标签传播算法忽视语义近邻,导致视觉相似而语义不相似进而影响标注效果等问题,提出了融合深度特征和语义邻域的自动图像标注方法,该方法首先构建基于深度卷积神经网络(CNN)的统一、自适应深度特征提取框架,接着对训练集划分语义组并建立待标注图像的邻域图像集,最后根据视觉距离计算邻域图像各标签的贡献值并排序得到标注关键词。本发明简单灵活,具有较强的实用性。 | ||
搜索关键词: | 一种 融合 深度 特征 语义 邻域 自动 图像 标注 方法 | ||
【主权项】:
1.一种融合深度特征和语义邻域的自动图像标注方法,其特征在于,包括以下步骤:步骤S1:对训练图像进行语义分组,将一个标签所包含的所有图像作为一个语义组,并按组将所述训练图像输入训练好的CNN深度网络;步骤S2:通过逐层卷积和逐层采样将训练图像转化为特征向量,并提取每个语义组的训练图像的特征;步骤S3:将待标注图像输入所述训练好的CNN深度网络,按步骤S2对所述待标注图像进行特征提取;步骤S4:计算所述待标注图像和每一个语义组中所有训练图像的视觉相似度,并构建邻域图像集;步骤S5:计算待标注图像的标签的贡献值,并根据贡献值大小得到预测关键词。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福州大学,未经福州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610585022.8/,转载请声明来源钻瓜专利网。