[发明专利]基于深度递归神经网络的视频去噪方法有效
申请号: | 201610729038.1 | 申请日: | 2016-08-25 |
公开(公告)号: | CN106331433B | 公开(公告)日: | 2020-04-24 |
发明(设计)人: | 宋利;陈欣苑;杨小康 | 申请(专利权)人: | 上海交通大学 |
主分类号: | H04N5/213 | 分类号: | H04N5/213;G06T5/00 |
代理公司: | 上海汉声知识产权代理有限公司 31236 | 代理人: | 徐红银;郭国中 |
地址: | 200240 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提供一种基于深度递归神经网络的视频去噪方法,所述方法采用端到端的深度神经网络模型,所述深度神经网络模型包含两层递归神经网络,将有噪视频作为输入,第一层递归神经网络通过递归和非线性运算获得视频的初级特征,并将其作为输出传递到下一层递归神经网络,视频在第二层递归网络中获得高级特征,输出层利用两层递归神经网络获得的特征解码重构最终输出去噪后的视频;本发明利用时间域的递归结构端到端地进行视频去噪,无须通过其他复杂算法获取视频的运动信息;利用深度网络结构强大的表达能力实现有噪视频与去噪视频之间的映射;能够延展并应用在各种不同类型的噪声中,如高斯噪声、泊松‑高斯混合噪声等。 | ||
搜索关键词: | 基于 深度 递归 神经网络 视频 方法 | ||
【主权项】:
一种基于深度递归神经网络的视频去噪方法,其特征在于:所述方法采用端到端的深度神经网络模型,利用时间域的递归结构端到端地进行视频去噪;所述深度神经网络模型包含两层递归神经网络,将有噪视频作为输入,第一层递归神经网络通过递归和非线性运算获得视频的初级特征,并将其作为输出传递到下一层递归神经网络,视频在第二层递归网络中获得高级特征,输出层利用两层递归神经网络获得的特征解码重构最终输出去噪后的视频;所述深度神经网络模型,具体表示如下:h1(t)=σ(Wh1xx(t)+Wh1h1h1(t-1)+bh1)]]>hl(t)=σ(Whlhl-1hl-1(t)+Whlhlhl(t-1)+bhl)]]> y(t)=σ(Wyhh(t)+by)其中,x(t)表示输入数据,表示深度递归神经网络第一层t时刻和t‑1的状态,表示深度递归神经网络第l层t时刻、第l‑1层t时刻、第l层t‑1的状态,y(t)表示输出数据;by均为模型的参数,通过BPTT算法最小化损失函数获得;t表示视频图像的时间序列索引。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海交通大学,未经上海交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610729038.1/,转载请声明来源钻瓜专利网。
- 上一篇:一种船舶机舱值班监测报警系统
- 下一篇:一种用于次生灾害预警的智能穿戴设备