[发明专利]基于fMRI视觉功能数据DeconvNet的图像关注目标语义分割方法有效
申请号: | 201610361766.1 | 申请日: | 2016-05-27 |
公开(公告)号: | CN106022384B | 公开(公告)日: | 2019-07-12 |
发明(设计)人: | 闫镔;王林元;乔凯;童莉;曾颖;徐一夫;贺文颉;张驰;高辉 | 申请(专利权)人: | 中国人民解放军信息工程大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 郑州大通专利商标代理有限公司 41111 | 代理人: | 陈大通 |
地址: | 450000 河*** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及一种基于fMRI视觉功能数据DeconvNet的图像关注目标语义分割方法,通过被试在自然场景图像刺激下采集到的fMRI视觉功能数据,训练深度卷积神经网络模型,将其映射到关注目标类别标签上进行模型优化;构造与优化后的深度卷积神经网络对称的深度网络模型,利用fMRI视觉功能数据及刺激图像相对应的语义分割结果优化该模型参数,获得fMRI视觉功能数据到逐像素语义分割结果的映射;采集被试观看测试图像的fMRI视觉功能数据,确定被试关注目标类别和逐像素语义分割结果,分割出关注目标区域和相应目标语义。本发明对被试观看自然场景图像时所引发的fMRI视觉功能数据进行解析,提取出刺激图像中所有目标类别并获得语义分割结果,提高关注目标提取的准确性。 | ||
搜索关键词: | 基于 fmri 视觉 功能 数据 deconvnet 图像 关注 目标 语义 分割 方法 | ||
【主权项】:
1.一种基于fMRI视觉功能数据DeconvNet的图像关注目标语义分割方法,其特征在于:包含如下步骤:步骤1、采集被试在自然场景图像刺激下的fMRI视觉功能数据,训练一个由刺激图像到fMRI视觉功能数据的深度卷积神经网络模型,及一个由fMRI视觉功能数据到关注目标类别的线性映射模型,将训练得到的深度卷积神经网络模型映射到线性映射模型上,进行网络模型优化;步骤2、构造一个与网络模型优化后的深度卷积神经网络对称的反卷积深度网络模型,利用fMRI视觉功能数据及刺激图像相对应的语义分割结果对反卷积深度网络模型进行优化处理,获得fMRI视觉功能数据到逐像素语义分割结果的映射,得到语义分割深度网络模型;步骤3、采集被试观看测试图像时的fMRI视觉功能数据,通过语义分割深度网络模型,得到图像逐像素语义分割结果;步骤4、通过关注目标类别的线性映射模型,得到被试图像关注的目标类别;步骤5、根据步骤3得到的图像逐像素语义分割结果及步骤4中得到的被试图像关注的目标类别,分割出被试关注的目标区域和相应目标语义。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军信息工程大学,未经中国人民解放军信息工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610361766.1/,转载请声明来源钻瓜专利网。
- 上一篇:一种IC卡的自动充值激活方法
- 下一篇:玻璃滑槽