[发明专利]基于深度递归神经网络的视频去噪方法有效

专利信息
申请号: 201610729038.1 申请日: 2016-08-25
公开(公告)号: CN106331433B 公开(公告)日: 2020-04-24
发明(设计)人: 宋利;陈欣苑;杨小康 申请(专利权)人: 上海交通大学
主分类号: H04N5/213 分类号: H04N5/213;G06T5/00
代理公司: 上海汉声知识产权代理有限公司 31236 代理人: 徐红银;郭国中
地址: 200240 *** 国省代码: 上海;31
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提供一种基于深度递归神经网络的视频去噪方法,所述方法采用端到端的深度神经网络模型,所述深度神经网络模型包含两层递归神经网络,将有噪视频作为输入,第一层递归神经网络通过递归和非线性运算获得视频的初级特征,并将其作为输出传递到下一层递归神经网络,视频在第二层递归网络中获得高级特征,输出层利用两层递归神经网络获得的特征解码重构最终输出去噪后的视频;本发明利用时间域的递归结构端到端地进行视频去噪,无须通过其他复杂算法获取视频的运动信息;利用深度网络结构强大的表达能力实现有噪视频与去噪视频之间的映射;能够延展并应用在各种不同类型的噪声中,如高斯噪声、泊松‑高斯混合噪声等。
搜索关键词: 基于 深度 递归 神经网络 视频 方法
【主权项】:
一种基于深度递归神经网络的视频去噪方法,其特征在于:所述方法采用端到端的深度神经网络模型,利用时间域的递归结构端到端地进行视频去噪;所述深度神经网络模型包含两层递归神经网络,将有噪视频作为输入,第一层递归神经网络通过递归和非线性运算获得视频的初级特征,并将其作为输出传递到下一层递归神经网络,视频在第二层递归网络中获得高级特征,输出层利用两层递归神经网络获得的特征解码重构最终输出去噪后的视频;所述深度神经网络模型,具体表示如下:h1(t)=σ(Wh1xx(t)+Wh1h1h1(t-1)+bh1)]]>hl(t)=σ(Whlhl-1hl-1(t)+Whlhlhl(t-1)+bhl)]]> y(t)=σ(Wyhh(t)+by)其中,x(t)表示输入数据,表示深度递归神经网络第一层t时刻和t‑1的状态,表示深度递归神经网络第l层t时刻、第l‑1层t时刻、第l层t‑1的状态,y(t)表示输出数据;by均为模型的参数,通过BPTT算法最小化损失函数获得;t表示视频图像的时间序列索引。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海交通大学,未经上海交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201610729038.1/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top