电路系统电工接线电路图大全图中RUN是代表什么? XU代表什么? 如图

您所在位置: &
&nbsp&&nbsp&nbsp&&nbsp
汽车电路分析第3篇 章 不同类型汽车电路图的识读.ppt 118页
本文档一共被下载:
次 ,您可全文免费在线阅读后下载本文档。
下载提示
1.本站不保证该用户上传的文档完整性,不预览、不比对内容而直接下载产生的反悔问题本站不予受理。
2.该文档所得收入(下载+内容+预览三)归上传者、原创者。
3.登录后可充值,立即自动返金币,充值渠道很便利
汽车电路分析第3篇 章 不同类型汽车电路图的识读.ppt
你可能关注的文档:
··········
··········
RT1760N组成的遥控发射器电路印制板图 (a) 电路板元件面布局图
(b) 元件面印制电路板图
(c) 非元件面印制板图
  2) 如何在印制板图中寻找元器件   (1) 根据元器件的分布规律寻找。虽然印制电路板上的元器件分布不是按照电路原理图上的排列分布,但是某一级电路中的元器件基本上是集中在一起的。例如集成电路(如图3-15中的IC1和IC2)各引脚上的元器件基本上都装在集成电路附近。   可以结合电路原理图寻找印制板图中的元器件。例如结合后面的电路原理图3-21可以看出,IC1为14个引脚的集成电路,其1、2、4、9号引脚接地。根据这个规律在印制板图3-16(a)中,可以找到IC1,在图3-16(b)中右上角位置找到集成电路IC1的双列14个引脚,并且可以看到其1、2、4、9号引脚是用一条线连在一起的,和最右上角的接地圆点(这个圆点就是电路的接地点)相连。   (2) 根据一些元器件的特征去寻找。要想在印制板图中寻找元器件,并弄清楚它们的连接情况,应当先看懂与印制板图相配套的电路原理图,在电路原理图中找出元器件的连接情况,再根据元器件的特征在印制板图中寻找元器件,这样很快就能找到元器件并看清其连接情况。   例如在后面的电路原理图3-21中,VT1和L00天线串联,是一个功率放大管,在图3-16(a)中就可以先找到VT1。在电路图3-21中,SW1~SW3是遥控发射器上的三个按键,在图3-16(a)中,看形状和标识就可以找到SW1、SW2、SW3。在电路图3-21中,L00是天线,在图3-16(c)中根据其形状很快就可以找到L00。   例如想要在印制板图3-16中找到R5,弄清R5的连接情况,我们可以先看电路图3-21,从中知道R5接在IC1的13、14号引脚之间,再在图3-16(a)中找到R5,在图3-16(b)中找到13、14号引脚线,接在它们之间的就是R5。   若想在印制板图3-16中找到VD1、VD2,弄清其连接情况,我们可以先看电路图3-21,从中可看出VD1负极接8脚,VD2负极接7脚,VD1、VD2的正极接SW3,再在图3-16(a)中找到VD1、VD2、SW3,在图3-16(b)中通过细实线弄清楚它们的连接。   3) 抓住主要器件识读   汽车电子电路中主要元器件如晶体管、集成电路等,因为它们在图中的数量较少,比较容易找到。   例如在图3-20电路原理图中可以看出,有两块集成电路IC1和IC2,有8个晶体三极管VT1~VT8,喇叭是发出警报的,由VT2进行控制,VD4~VD10为显示用的发光二极管。从电路图3-20中可以看出,IC2的1号脚接地(搭铁),2引脚接VT1的集电极,3号引脚接R3的一端,5号引脚接R3的另一端,IC2的4号引脚接VT2的基极,在印制电路板图3-15(a)中给出了IC2的5个引脚名称,图3-15(b)中1、2、3、4、5脚(IC2)的连接情况与后面的电路原理图3-20中是相同的。   在印制板图3-15(b)左上角位置,IC1的1号引脚接VD1的负极端,并与C1、C2相连,IC1的2号引脚接C1、C2并搭铁,IC1的3号引脚接VD2、C3,并与喇叭及VD4、VD5、VD6、VD7、VD8、VD9、VD10的正极相连。   从电路原理图3-20中和图3-15中可以看出,VT1的集电极接IC2的2号引脚,VT1的发射极接地,基极接R5,VT3、VT4、VT5、VT6、VT7、VT8的集电极分别与VD5、VD6、VD7、VD8、VD9、VD10的负极相接,VT3~VT8的发射极分别与电阻R6~R11的一端相接,R6~R11的另一端接地。
集成电路图的识读 3.4.1
集成电路图的识读注意事项   在汽车电路中有集成电路时,识读时了解集成电路的各引脚的作用是识读图的关键。了解集成电路各引脚的作用可以通过以下几种方法进行:   (1) 通过查阅有关集成电路应用手册,了解各引脚的作用。   (2) 根据集成电路的内电路框图进行分析。   (3) 根据集成电路应用电路中各引脚外电路的特征进行分析。   知道了各引脚的作用,分析各引脚外电路工作原理和电子元器件的作用就方便了。例如:在汽车电子电路中,最常用的电压比较器有LM741、LM324、LM339(均由美国国家半导体公司生产)。LM741国内相同的型号是F741。LM741各引脚如图3-17所示。 图3-17
LM741引脚图   LM741是双电源单集成运放器,采用双列直插式封装,一共有8个引脚,可以用做放大器,也可以用做电压比较器。其中4号引脚连接负电源,在放大交流信号时接负电位信号,用以保证信号的完整性,在汽车电路中作为放大器或电压比较器时直接搭铁。7号引脚连
正在加载中,请稍后...单元四??典型汽车起动系统控制电路分析-学路网-学习路上 有我相伴
单元四??典型汽车起动系统控制电路分析
来源:DOCIN &责任编辑:王小亮 &
口腔执业医师考试四个单元都是什么?问:口腔执业医师考试的四个单元都是什么?每一单元的科目占多少分?希望得...答:第一单元(第一天上午):基础科目17%+公共科目8%,(生化10分、药理10分、微生物10分、免疫10分、口解34分、口病34分、公共42分)第二单元(第一天下午):口腔内科学(约占130分)+口腔预防医学(约占20分)第三单元(第二天上午考):口腔外科学...ansys中quad4node42是什么意思?答:4节点四边形单元PLANE42用于建立二维实体结构模型。该单元既能用作平面单元(平面应力或平面应变),也能用作轴对称单元。该单元由四个节点定义,每个...不同单元的两户人家(1单元四楼和3单元五楼)可以...问:不同单元的两户人家(1单元四楼和3单元五楼)可以同时使用一个电表吗(...答:一般来说不这样弄现在用电均应按阶梯电价收费如果合并在一起用电很可能达到第三段用电量岸鹊缫邮3角的阶梯电价对用电客户来说也是不划算的所以还是一个房一块表会好些单元四??典型汽车起动系统控制电路分析(图3)单元四??典型汽车起动系统控制电路分析(图7)单元四??典型汽车起动系统控制电路分析(图12)单元四??典型汽车起动系统控制电路分析(图14)单元四??典型汽车起动系统控制电路分析(图18)单元四??典型汽车起动系统控制电路分析(图20)Excel表格里一个固定值随机分配到4个单元格???问:Excel表格里。已知一个固定值比如0.60.随机分配到四个单元格。四个单元...答:B2=ROUND($A2/4+RAND()*0.06-0.防抓取,学路网提供内容。==========以下对应文字版==========在EXCEL如何取单元格中内格中的最后4位数字或者叫...答:可以用提取函数right。它的函数表达式是=right(提取数值或所在单元格,提取位数),right意思是右边,也就是从右边也就是倒数第一防抓取,学路网提供内容。二、别克(BUICK)新世纪系列轿车起动系统电路图 RUNBULB TEST START PCM-BCM439 START CRANKSIGNAL 806 PCM C2 23 Maxi PCM 625 PARK NEUTRAL 1737 CRANKSIGNAL 806 C2 23 工作原理2 PCM 625 BCMSTART BCM 工作原理3 BCM BCM PCM PCM BCM BCM PCM PCM 工作原理4excel如何每四个单元格转置一次?问:excel如何每四个单元格转置一次?如112转置成...答:假设数据在第一行,A2用公式:=OFFSET($A$1,,ROW(A1)*4+COLUMN(A1)-5)右拉到D2,然后下拉。防抓取,学路网提供内容。excel中单元格N290/$G$4是什么意思,有什么作用?...答:就是求N290这个单元格的数值除以G4的商/表示除号$在EXCEL里叫“绝对引用”目的是固定这个单元格,你这个公式不论复制到哪里,这个G4不会改变,没有这个$,像公式中的N290就会变了。比如这个公式复制粘贴到下面一个单元格,就会变成N291/$G$4...Excel表格里一个固定值随机分配到4个单元格???问:Excel表格里。已知一个固定值比如0.60.随机分配到四个单元格。四个单元...答:B2=ROUND($A2/4+RAND()*0.06-0.03,2)向下向右复制E2=A2-SUM(B2:D2)向下复制在EXCEL如何取单元格中内格中的最后4位数字或者叫...答:可以用提取函数right。它的函数表达式是=right(提取数值或所在单元格,提取位数),right意思是右边,也就是从右边也就是倒数第一位起提取几位。所以可以用=right(A1,4),A1表示提取的单元格,4就是提取后面四位意思,,其他的向下填充即...
- Copyright & 2017 www.xue63.com All Rights Reserved&figure&&img src=&https://pic1.zhimg.com/v2-7c2a40abacfcb3aa08ce55aceeef7149_b.jpg& data-rawwidth=&700& data-rawheight=&700& class=&origin_image zh-lightbox-thumb& width=&700& data-original=&https://pic1.zhimg.com/v2-7c2a40abacfcb3aa08ce55aceeef7149_r.jpg&&&/figure&&p&&b&原创内容,禁止转载!&/b&&/p&&hr&&p&&i&导读:这是 &a href=&https://zhuanlan.zhihu.com/python-opencv-image-processing& class=&internal&&Python OpenCV 图像处理&/a& 专栏的第12篇文章。上一篇&/i&&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&[171111] Python OpenCV 中 SIFT 特征点检测和匹配&/a&&i&主要是概述了SIFT算法的主要原理,并给出使用 Python OpenCV 进行SIFT特征点监测、描述子生成、匹配和筛选、单应性矩阵生成、仿射变换等操作,实现基于特征点匹配的物体查找。本篇将要介绍的是基于 Python OpenCV 的数独数字识别与填充。 关于 Python OpenCV 处理的基础知识,可以参考这篇文章 &a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&[171102] Python3 OpenCV3 图像处理基础(Python3 + Numpy + Matplotlib + OpenCV3 + ...)&/a&。更多文章,请查看 &a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&[171101] Python OpenCV 图像处理专栏目录&/a&。&/i&&/p&&hr&&p&挖坑待填。。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-b84a0d7f379edbe395ea52a9_b.jpg& data-caption=&& data-rawwidth=&432& data-rawheight=&432& class=&origin_image zh-lightbox-thumb& width=&432& data-original=&https://pic2.zhimg.com/v2-b84a0d7f379edbe395ea52a9_r.jpg&&&/figure&&hr&&p&数独,一个古老的烧脑解谜游戏。数独的基本构成是 3x3 的小九宫格,九个小九宫格构成一个大的 9x9 的九宫格。数独初始化界面有部分数字已经被填充。游戏规则是,使用1~9填充所有的空白格,每行、列、小九宫格中的数字都不重复,也就是 “一个数字”,“数独”。&/p&&p&由于一般情况下,数独的格子中只有数字和空白这两种情况。因此可以用于字符检测、识别以及后续程序自动化求解。一个典型的数据图片如下:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-cfd501d5f5d6871fcf04_b.jpg& data-caption=&& data-rawwidth=&450& data-rawheight=&450& class=&origin_image zh-lightbox-thumb& width=&450& data-original=&https://pic1.zhimg.com/v2-cfd501d5f5d6871fcf04_r.jpg&&&/figure&&p&本来想着检测字符,识别,然后自动化求解,但是难度实在是超过了预期。检测结果还不错,但是曾经训练的手写数字识别用于印刷体识别错误率太高了,导致卡在这一步了。因此后续自动化处理啥的就先放一边吧。关于识别,在&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&[171106] 基于 Python OpenCV 图像处理和机器学习的光学字符识别(OCR)&/a& 文中有讲。但是今天针对印刷体识别的,没有针对性地训练模型。因而对于印刷体来说,容易出现 1 被识别成 7, 6被误识别成 0。关于识别和后处理的就放一边了,这里大概说一下前期提取网格线和字符的部分。&/p&&p&主要思想是:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&(1) 增强对比度等预处理。
在专栏中有篇关于对比度增强的文章,不过挖了坑没仔细填。一般而言就是直方图均衡化、
各种滤波降噪、细节增强等。针对这里的场景,则使用原图除以滤波后的图并归一化。
(2) 查找最大的边缘区域,实心填充,二值化为掩模。
(3) 在掩模中剔除字符区域,得到边框线的掩模,进而得到边框线的图像,并阈值化。
(5) 对阈值化后的图像检测水平和竖直线条.
(6) 水平竖直线条首先膨胀操作,然后位与操作,得到交叉点块。
(7) 交叉点块求取中心,并先按行后按列排序,得到有序的交叉点坐标。
(8) 使用交叉点,将图像划分为 9x9 的四边形区域,反向映射得到一系列正方形小块,填充到应该处的位置。
(9) 再次进行字符检测、OCR 识别,然后使用 SudoKu 计算程序计算结果,并填充。
(10) 完毕。
&/code&&/pre&&/div&&figure&&img src=&https://pic4.zhimg.com/v2-0b61fe2753baf422c740c_b.jpg& data-caption=&& data-rawwidth=&1300& data-rawheight=&650& class=&origin_image zh-lightbox-thumb& width=&1300& data-original=&https://pic4.zhimg.com/v2-0b61fe2753baf422c740c_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-78b6eae128a7bfbb30addc6c7c8cece1_b.jpg& data-caption=&& data-rawwidth=&1050& data-rawheight=&700& class=&origin_image zh-lightbox-thumb& width=&1050& data-original=&https://pic2.zhimg.com/v2-78b6eae128a7bfbb30addc6c7c8cece1_r.jpg&&&/figure&&figure&&img src=&https://pic4.zhimg.com/v2-78eb8e5e4ca92aa1f493d7_b.jpg& data-caption=&& data-rawwidth=&900& data-rawheight=&450& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&https://pic4.zhimg.com/v2-78eb8e5e4ca92aa1f493d7_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-6efbd6ea634c27f57abc95d4dd1d95fe_b.jpg& data-caption=&& data-rawwidth=&1300& data-rawheight=&433& class=&origin_image zh-lightbox-thumb& width=&1300& data-original=&https://pic3.zhimg.com/v2-6efbd6ea634c27f57abc95d4dd1d95fe_r.jpg&&&/figure&&p&&br&&/p&&p&最终检测结果有误,把 6 错误识别成 0, 把 1 错误识别成 7。&/p&&p&这是因为用的是识别手写数字的模型,而这里的字体时印刷体的,所以效果太差。&/p&&p&&br&&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&# 识别结果
[[-1 -1 -1
0 -1 -1 -1 -1 -1
[-1 -1 -1 -1 -1
[ 8 -1 -1 -1 -1 -1 -1 -1
2 -1 -1 -1 -1 -1]
[ 9 -1 -1 -1 -1 -1
7 -1 -1 -1]]
&/code&&/pre&&/div&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-166c8b89d2bc3ecfc4deff_b.jpg& data-caption=&& data-rawwidth=&450& data-rawheight=&450& class=&origin_image zh-lightbox-thumb& width=&450& data-original=&https://pic3.zhimg.com/v2-166c8b89d2bc3ecfc4deff_r.jpg&&&/figure&&p&以后,可能会考虑训练印刷体的,然后再识别。&/p&&p&如果识别正确,后续的自动化计算,就不是问题了。&/p&&p&&br&&/p&&hr&&p&未完结。。&/p&
原创内容,禁止转载!导读:这是
专栏的第12篇文章。上一篇主要是概述了SIFT算法的主要原理,并给出使用 Python OpenCV 进行SIFT特征点监测、描述子生成、匹配和筛选、单应性矩阵生…。更多文章,请查看 。
&p&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-4679bacc45e40cb2adeec49e33cfc696_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&575& data-rawheight=&191& class=&origin_image zh-lightbox-thumb& width=&575& data-original=&https://pic3.zhimg.com/v2-4679bacc45e40cb2adeec49e33cfc696_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-2bc71cdfad302a84d0793c1dfe4195b5_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1653& data-rawheight=&2339& class=&origin_image zh-lightbox-thumb& width=&1653& data-original=&https://pic2.zhimg.com/v2-2bc71cdfad302a84d0793c1dfe4195b5_r.jpg&&&/figure&&figure&&img src=&https://pic1.zhimg.com/v2-efae551312bab8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1653& data-rawheight=&2339& class=&origin_image zh-lightbox-thumb& width=&1653& data-original=&https://pic1.zhimg.com/v2-efae551312bab8_r.jpg&&&/figure&&figure&&img src=&https://pic1.zhimg.com/v2-24ec039cdd3a2bbe07a8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1653& data-rawheight=&2339& class=&origin_image zh-lightbox-thumb& width=&1653& data-original=&https://pic1.zhimg.com/v2-24ec039cdd3a2bbe07a8_r.jpg&&&/figure&&figure&&img src=&https://pic1.zhimg.com/v2-fcf6efa24dded343a640_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1653& data-rawheight=&2339& class=&origin_image zh-lightbox-thumb& width=&1653& data-original=&https://pic1.zhimg.com/v2-fcf6efa24dded343a640_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-779a11eaa6bebeb49f03b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1653& data-rawheight=&2339& class=&origin_image zh-lightbox-thumb& width=&1653& data-original=&https://pic2.zhimg.com/v2-779a11eaa6bebeb49f03b_r.jpg&&&/figure&&p&&/p&
&figure&&img src=&https://pic1.zhimg.com/v2-b0ad4b17ac_b.jpg& data-rawwidth=&2048& data-rawheight=&1221& class=&origin_image zh-lightbox-thumb& width=&2048& data-original=&https://pic1.zhimg.com/v2-b0ad4b17ac_r.jpg&&&/figure&&p&11000手部数据,收集了11076手的图像(1600 x 1200像素)190例,18~75岁不同年龄。每个受试者被要求打开和合上右手和左手的手指。每只手都用均匀的白色背景从手背和手掌侧面拍摄,并与相机的距离大致相等。与每个图像相关的元数据包含:(1)主体身份,(2)性别(3)年龄,(4)肤色,和(5)一组描述照片状态的元信息,即右或左手,右手边(背侧或掌侧),和手是否包含戒指等佩戴物,指甲油,或违规的值(0,1)描述。该数据集是免费的,合理的学术合理使用。&/p&&p&链接如下:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&https://sites.google.com/view/11khands
&/code&&/pre&&/div&&p&&/p&&p&&/p&&p&&/p&
11000手部数据,收集了11076手的图像(1600 x 1200像素)190例,18~75岁不同年龄。每个受试者被要求打开和合上右手和左手的手指。每只手都用均匀的白色背景从手背和手掌侧面拍摄,并与相机的距离大致相等。与每个图像相关的元数据包含:(1)主体身份,(2…
&figure&&img src=&https://pic4.zhimg.com/v2-b8ecb91d64e8e9b1debbba0_b.jpg& data-rawwidth=&1920& data-rawheight=&1200& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&https://pic4.zhimg.com/v2-b8ecb91d64e8e9b1debbba0_r.jpg&&&/figure&&p&近期有很多小伙伴私信我,讨论关于超分辨率上的问题,我研究的也不多,帮助大家的实在有限。很多人都问我最近的这方面的进展。有关于SR的论文我一直在追更,但由于工作繁忙,时很少能抽出时间在仔细研究了。以下这些是我在&b&网上找到一个paper list&/b&。之前一直以txt保存在自己笔记本上,现在把它贴出来,提供给有需要的小伙伴学习。一直在找这个网址的链接,没找到。&b&希望有看见的小伙伴能提供个链接、毕竟人家收集蛮久的&/b&。这里不包括最近半年内的最新paper。关于最新的paper,每周追更arxiv的时候我都有收集,这些天没时间整理,过些日子会整理出来也分享给大家。话说回来,个人感觉现在的SR越做越变味道了,都在刷PSNR,其实PSNR真不能完全代表图像质量。SR的图像现在很多恢复的都不错,但用肉眼把SR和ground truth一对比,还是有差距。不过也不能完全否定PSNR的作用,毕竟肉眼看的标准太感性,总不能写论文的时候“looks better than others”。顺带提一下,最新NVIDIA的那篇论文,Progressive Growing of GANs for Improved Quality, Stability, and Variation,还是蛮震撼的。倒不是清晰度震撼了我,而是纹理的边界和细节部分很自然,这很符合人的视觉感受。&/p&&p&&b&&i&Image Restoration&/i&&/b&&/p&&p&Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Connections&/p&&p&&br&&/p&&p&intro: NIPS 2016&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Connections&/a&&/p&&p&Image Restoration Using Convolutional Auto-encoders with Symmetric Skip Connections&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Image Restoration Using Convolutional Auto-encoders with Symmetric Skip Connections&/a&&/p&&p&Image Completion with Deep Learning in TensorFlow&/p&&p&&br&&/p&&p&blog: &a href=&http://link.zhihu.com/?target=http%3A//bamos.github.io//deep-completion/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Image Completion with Deep Learning in TensorFlow&/a&&/p&&p&Deeply Aggregated Alternating Minimization for Image Restoration&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Deeply Aggregated Alternating Minimization for Image Restoration&/a&&/p&&p&A New Convolutional Network-in-Network Structure and Its Applications in Skin Detection, Semantic Segmentation, and Artifact Reduction&/p&&p&&br&&/p&&p&intro: Seoul National University&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] A New Convolutional Network-in-Network Structure and Its Applications in Skin Detection, Semantic Segmentation, and Artifact Reduction&/a&&/p&&p&&br&&/p&&p&&b&&i&Image Super-Resolution&/i&&/b&&/p&&p&Super-Resolution.Benckmark&/p&&p&&br&&/p&&p&intro: Benchmark and resources for single super-resolution algorithms&/p&&p&github: &a href=&http://link.zhihu.com/?target=https%3A//github.com/huangzehao/Super-Resolution.Benckmark& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&huangzehao/Super-Resolution.Benckmark&/a&&/p&&p&Image Super-Resolution Using Deep Convolutional Networks&/p&&p&&br&&/p&&p&intro: Microsoft Research&/p&&p&project page: &a href=&http://link.zhihu.com/?target=http%3A//mmlab.ie.cuhk.edu.hk/projects/SRCNN.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learning a Deep Convolutional Network for Image Super-Resolution&/a&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Image Super-Resolution Using Deep Convolutional Networks&/a&&/p&&p&training code: &a href=&http://link.zhihu.com/?target=http%3A//mmlab.ie.cuhk.edu.hk/projects/SRCNN/SRCNN_train.zip& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&mmlab.ie.cuhk.edu.hk/pr&/span&&span class=&invisible&&ojects/SRCNN/SRCNN_train.zip&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&test code: &a href=&http://link.zhihu.com/?target=http%3A//mmlab.ie.cuhk.edu.hk/projects/SRCNN/SRCNN_v1.zip& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&mmlab.ie.cuhk.edu.hk/pr&/span&&span class=&invisible&&ojects/SRCNN/SRCNN_v1.zip&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&github(Keras): &a href=&http://link.zhihu.com/?target=https%3A//github.com/titu1994/Image-Super-Resolution& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&titu1994/Image-Super-Resolution&/a&&/p&&p&Learning a Deep Convolutional Network for Image Super-Resolution&/p&&p&&br&&/p&&p&Baidu-pan: &a href=&http://link.zhihu.com/?target=http%3A//pan.baidu.com/s/1c0k0wRu& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&pan.baidu.com/s/1c0k0wR&/span&&span class=&invisible&&u&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&Shepard Convolutional Neural Networks&/p&&p&&br&&/p&&p&paper: &a href=&http://link.zhihu.com/?target=https%3A//papers.nips.cc/paper/5774-shepard-convolutional-neural-networks.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&papers.nips.cc/paper/57&/span&&span class=&invisible&&74-shepard-convolutional-neural-networks.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&github: &a href=&http://link.zhihu.com/?target=https%3A//github.com/jimmy-ren/vcnn_double-bladed/tree/master/applications/Shepard_CNN& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&jimmy-ren/vcnn_double-bladed&/a&&/p&&p&Bidirectional Recurrent Convolutional Networks for Multi-Frame Super-Resolution&/p&&p&&br&&/p&&p&intro: NIPS 2015&/p&&p&paper: &a href=&http://link.zhihu.com/?target=https%3A//papers.nips.cc/paper/5778-bidirectional-recurrent-convolutional-networks-for-multi-frame-super-resolution& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Bidirectional Recurrent Convolutional Networks for Multi-Frame Super-Resolution&/a&&/p&&p&Deeply-Recursive Convolutional Network for Image Super-Resolution&/p&&p&&br&&/p&&p&intro: CVPR 2016&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Deeply-Recursive Convolutional Network for Image Super-Resolution&/a&&/p&&p&paper: &a href=&http://link.zhihu.com/?target=http%3A//cv.snu.ac.kr/publication/conf/2016/DRCN_CVPR2016.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&cv.snu.ac.kr/publicatio&/span&&span class=&invisible&&n/conf/2016/DRCN_CVPR2016.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&Accurate Image Super-Resolution Using Very Deep Convolutional Networks&/p&&p&&br&&/p&&p&intro: CVPR 2016 Oral&/p&&p&project page: &a href=&http://link.zhihu.com/?target=http%3A//cv.snu.ac.kr/research/VDSR/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Accurate Image Super-Resolution Using Very Deep Convolutional Networks&/a&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Accurate Image Super-Resolution Using Very Deep Convolutional Networks&/a&&/p&&p&code: &a href=&http://link.zhihu.com/?target=http%3A//cv.snu.ac.kr/research/VDSR/VDSR_code.zip& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&cv.snu.ac.kr/research/V&/span&&span class=&invisible&&DSR/VDSR_code.zip&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&github: &a href=&http://link.zhihu.com/?target=https%3A//github.com/huangzehao/caffe-vdsr& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&huangzehao/caffe-vdsr&/a&&/p&&p&github(Torch): &a href=&http://link.zhihu.com/?target=https%3A//github.com/pby5/vdsr_torch& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&pby5/vdsr_torch&/a&&/p&&p&Super-Resolution with Deep Convolutional Sufficient Statistics&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Super-Resolution with Deep Convolutional Sufficient Statistics&/a&&/p&&p&Deep Depth Super-Resolution : Learning Depth Super-Resolution using Deep Convolutional Neural Network&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learning Depth Super-Resolution using Deep Convolutional Neural Network&/a&&/p&&p&Local- and Holistic- Structure Preserving Image Super Resolution via Deep Joint Component Learning&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Local- and Holistic- Structure Preserving Image Super Resolution via Deep Joint Component Learning&/a&&/p&&p&End-to-End Image Super-Resolution via Deep and Shallow Convolutional Networks&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&0&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&Accelerating the Super-Resolution Convolutional Neural Network&/p&&p&&br&&/p&&p&intro: speed up of more than 40 times with even superior restoration quality, real-time performance on a generic CPU&/p&&p&project page: &a href=&http://link.zhihu.com/?target=http%3A//mmlab.ie.cuhk.edu.hk/projects/FSRCNN.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Accelerating the Super-Resolution Convolutional Neural Network&/a&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Accelerating the Super-Resolution Convolutional Neural Network&/a&&/p&&p&srez: Image super-resolution through deep learning&/p&&p&&br&&/p&&p&github: &a href=&http://link.zhihu.com/?target=https%3A//github.com/david-gpu/srez& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&david-gpu/srez&/a&&/p&&p&Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network&/a&&/p&&p&github(Torch): &a href=&http://link.zhihu.com/?target=https%3A//github.com/leehomyc/Photo-Realistic-Super-Resoluton& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&leehomyc/Photo-Realistic-Super-Resoluton&/a&&/p&&p&github: &a href=&http://link.zhihu.com/?target=https%3A//github.com/junhocho/SRGAN& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&junhocho/SRGAN&/a&&/p&&p&github(Keras): &a href=&http://link.zhihu.com/?target=https%3A//github.com/titu1994/Super-Resolution-using-Generative-Adversarial-Networks& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&titu1994/Super-Resolution-using-Generative-Adversarial-Networks&/a&&/p&&p&github: &a href=&http://link.zhihu.com/?target=https%3A//github.com/buriburisuri/SRGAN& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&buriburisuri/SRGAN&/a&&/p&&p&Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network&/p&&p&&br&&/p&&p&intro: CVPR 2016&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network&/a&&/p&&p&github: &a href=&http://link.zhihu.com/?target=https%3A//github.com/Tetrachrome/subpixel& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&tetrachrome/subpixel&/a&&/p&&p&Is the deconvolution layer the same as a convolutional layer?&/p&&p&&br&&/p&&p&intro: A note on Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network.&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Is the deconvolution layer the same as a convolutional layer?&/a&&/p&&p&Amortised MAP Inference for Image Super-resolution&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Amortised MAP Inference for Image Super-resolution&/a&&/p&&p&Real-Time Video Super-Resolution with Spatio-Temporal Networks and Motion Compensation&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Real-Time Video Super-Resolution with Spatio-Temporal Networks and Motion Compensation&/a&&/p&&p&Super-Resolution on Satellite Imagery using Deep Learning&/p&&p&&br&&/p&&p&part 1: &a href=&http://link.zhihu.com/?target=https%3A//medium.com/the-downlinq/super-resolution-on-satellite-imagery-using-deep-learning-part-1-ec5c5cd3cd2%23.4oxn9pafu& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&medium.com/the-downlinq&/span&&span class=&invisible&&/super-resolution-on-satellite-imagery-using-deep-learning-part-1-ec5c5cd3cd2#.4oxn9pafu&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&Neural Enhance: Super Resolution for images using deep learning.&/p&&p&&br&&/p&&p&github: &a href=&http://link.zhihu.com/?target=https%3A//github.com/alexjc/neural-enhance& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&alexjc/neural-enhance&/a&&/p&&p&docker: &a href=&http://link.zhihu.com/?target=https%3A//github.com/alexjc/neural-enhance/blob/master/docker-cpu.df& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&alexjc/neural-enhance&/a&&/p&&p&Texture Enhancement via High-Resolution Style Transfer for Single-Image Super-Resolution&/p&&p&&br&&/p&&p&intro: Digital Media & Communications R&D Center, Samsung Electronics, Seoul, Korea&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Texture Enhancement via High-Resolution Style Transfer for Single-Image Super-Resolution&/a&&/p&&p&EnhanceNet: Single Image Super-Resolution through Automated Texture Synthesis&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Single Image Super-Resolution Through Automated Texture Synthesis&/a&&/p&&p&Learning a Mixture of Deep Networks for Single Image Super-Resolution&/p&&p&&br&&/p&&p&project page: &a href=&http://link.zhihu.com/?target=http%3A//www.ifp.illinois.edu/%7Edingliu2/accv2016/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learning a Mixture of Deep Networks for Single Image Super-Resolution&/a&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Learning a Mixture of Deep Networks for Single Image Super-Resolution&/a&&/p&&p&code: &a href=&http://link.zhihu.com/?target=http%3A//www.ifp.illinois.edu/%7Edingliu2/accv2016/codes/python_accv2016.zip& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&ifp.illinois.edu/~dingl&/span&&span class=&invisible&&iu2/accv2016/codes/python_accv2016.zip&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&Dual Recovery Network with Online Compensation for Image Super-Resolution&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Dual Recovery Network with Online Compensation for Image Super-Resolution&/a&&/p&&p&Super-resolution Using Constrained Deep Texture Synthesis&/p&&p&&br&&/p&&p&intro: Brown University & Georgia Institute of Technology&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&4&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&Pixel Recursive Super Resolution&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Pixel Recursive Super Resolution&/a&&/p&&p&github(Tensorflow): &a href=&http://link.zhihu.com/?target=https%3A//github.com/nilboy/pixel-recursive-super-resolution& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&nilboy/pixel-recursive-super-resolution&/a&&/p&&p&GUN: Gradual Upsampling Network for single image super-resolution&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Gradual Upsampling Network for single image super-resolution&/a&&/p&&p&Single Image Super-resolution with a Parameter Economic Residual-like Convolutional Neural Network&/p&&p&&br&&/p&&p&intro: Extentions of mmm 2017 paper&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Single Image Super-resolution with a Parameter Economic Residual-like Convolutional Neural Network&/a&&/p&&p&Deep Laplacian Pyramid Networks for Fast and Accurate Super-Resolution&/p&&p&&br&&/p&&p&intro: CVPR 2017&/p&&p&project page(code+dataset): &a href=&http://link.zhihu.com/?target=http%3A//vllab1.ucmerced.edu/%7Ewlai24/LapSRN/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&vllab1.ucmerced.edu/~wl&/span&&span class=&invisible&&ai24/LapSRN/&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Deep Laplacian Pyramid Networks for Fast and Accurate Super-Resolution&/a&&/p&&p&github(Matlab+MatConvNet): &a href=&http://link.zhihu.com/?target=https%3A//github.com/phoenix104104/LapSRN& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&phoenix104104/LapSRN&/a&&/p&&p&Video Super-resolution&/p&&p&Detail-revealing Deep Video Super-resolution&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Detail-revealing Deep Video Super-resolution&/a&&/p&&p&github: &a href=&http://link.zhihu.com/?target=https%3A//github.com/jiangsutx/SPMC_VideoSR& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&jiangsutx/SPMC_VideoSR&/a&&/p&&p&&br&&/p&&p&&b&&i&Image Denoising&/i&&/b&&/p&&p&Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Residual Learning of Deep CNN for Image Denoising&/a&&/p&&p&github: &a href=&http://link.zhihu.com/?target=https%3A//github.com/cszn/DnCNN& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&cszn/DnCNN&/a&&/p&&p&Medical image denoising using convolutional denoising autoencoders&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Medical image denoising using convolutional denoising autoencoders&/a&&/p&&p&Rectifier Neural Network with a Dual-Pathway Architecture for Image Denoising&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Rectifier Neural Network with a Dual-Pathway Architecture for Image Denoising&/a&&/p&&p&Non-Local Color Image Denoising with Convolutional Neural Networks&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Non-Local Color Image Denoising with Convolutional Neural Networks&/a&&/p&&p&Joint Visual Denoising and Classification using Deep Learning&/p&&p&&br&&/p&&p&intro: ICIP 2016&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Joint Visual Denoising and Classification using Deep Learning&/a&&/p&&p&github: &a href=&http://link.zhihu.com/?target=https%3A//github.com/ganggit/jointmodel& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ganggit/jointmodel&/a&&/p&&p&Deep Convolutional Denoising of Low-Light Images&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Deep Convolutional Denoising of Low-Light Images&/a&&/p&&p&Deep Class Aware Denoising&/p&&p&&br&&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Deep Class Aware Denoising&/a&&/p&&p&End-to-End Learning for Structured Prediction Energy Networks&/p&&p&&br&&/p&&p&intro: University of Massachusetts & CMU&/p&&p&arxiv: &a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] End-to-End Learning for Structured Prediction Energy Networks&/a&&/p&&p&Block-Matching Convolutional Neural Network for Image Denoising&/p&&p&&br&&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&[] Block-Matching Convolutional Neural Network for Image Denoising&/a& &/p&&p&&br&&/p&&p&--------------------------------------分割线------------------------------------------------&/p&&p&更新&/p&&p&之前承诺整理的2017年下半年有关超分辨率的论文,拖着拖了好久,今天把这债还了。说是下半年的,实际上主要是上面的list里没包含的一些论文,整理出来希望有帮助。&/p&&p&&br&&/p&&p&FAST: A Framework to Accelerate Super-Resolution Processing on Compressed Videos &/p&&p&Zhengdong Zhang, Vivienne Sze&/p&&p&&br&&/p&&p&FormResNet: Formatted Residual Learning for Image Restoration &/p&&p&Jianbo Jiao, Wei-Chih Tu, Shengfeng He, Rynson W. H. Lau&/p&&p&&br&&/p&&p&Reflectional and Rotational Invariances in Single Image Superresolution &/p&&p&Simon Donne, Laurens Meeus, Hiep Quang Luong, Bart Goossens, Wilfried Philips&/p&&p&&br&&/p&&p&Image Super Resolution Based on Fusing multiple Convolution Neural Networks &/p&&p&Haoyu Ren, Mostafa El-Khamy, Jungwon Lee&/p&&p&&br&&/p&&p&SRHRF+: Self-Example Enhanced Single Image Super-Resolution Using Hierarchical Random Forests &/p&&p&Jun-Jie Huang, Tianrui Liu, Pier Luigi Dragotti, Tania Stathaki&/p&&p&&br&&/p&&p&Multi-Resolution Data Fusion for Super-Resolution Electron Microscopy &/p&&p&Suhas Sreehari, S. V. Venkatakrishnan, Katherine L. Bouman, Jeff P. Simmons, Larry F. Drummy, Charles A. Bouman&/p&&p&&br&&/p&&p&Enhanced Deep Residual Networks for Single Image Super-Resolution &/p&&p&Bee Lim, Sanghyun Son, Heewon Kim, Seungjun Nah, Kyoung Mu Lee&/p&&p&&br&&/p&&p&Beyond Deep Residual Learning for Image Restoration: Persistent Homology-Guided Manifold Simplification &/p&&p&Woong Bae, Jaejun Yoo, Jong Chul Ye&/p&&p&&br&&/p&&p&A Deep Convolutional Neural Network with Selection Units for Super-Resolution &/p&&p&Jae-Seok Choi, Munchurl Kim&/p&&p&&br&&/p&&p&Balanced Two-Stage Residual Networks for Image Super-Resolution &/p&&p&Yuchen Fan, Honghui Shi, Jiahui Yu, Ding Liu, Wei Han, Haichao Yu, Zhangyang Wang, Xinchao Wang, Thomas S. Huang&/p&&p&&br&&/p&&p&Fast and Accurate Image Super-Resolution Using A Combined Loss &/p&&p&Jinchang Xu, Yu Zhao, Yuan Dong, Hongliang Bai&/p&&p&&br&&/p&&p&Deep Wavelet Prediction for Image Super-resolution &/p&&p&Tiantong Guo, Hojjat Seyed Mousavi, Tiep Huu Vu, Vishal Monga&/p&&p&&br&&/p&&p&Joint Blind Motion Deblurring and Depth Estimation of Light Field&/p&&p&Dongwoo Lee, Haesol Park, In Kyu Park, Kyoung Mu Lee&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&8&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&Super-Resolution for Overhead Imagery Using DenseNets and Adversarial Learning&/p&&p&Marc Bosch, Christopher M. Gifford, Pedro A. Rodriguez&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&2&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&A Frequency Domain Neural Network for Fast Image Super-resolution&/p&&p&Junxuan Li, Shaodi You, Antonio Robles-Kelly&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&7&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&SRPGAN: Perceptual Generative Adversarial Network for Single Image Super Resolution&/p&&p&Bingzhe Wu, Haodong Duan, Zhichao Liu, Guangyu Sun&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&7&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&MemNet: A Persistent Memory Network for Image Restoration&/p&&p&Ying Tai, Jian Yang, Xiaoming Liu, Chunyan Xu&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&9&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&Image Super-resolution via Feature-augmented Random Forest&/p&&p&Hailiang Li, Kin-Man Lam, Miaohui Wang&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&8&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&Fast and Accurate Image Super-Resolution with Deep Laplacian Pyramid Networks&/p&&p&Wei-Sheng Lai, Jia-Bin Huang, Narendra Ahuja, Ming-Hsuan Yang&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&2&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&&Zero-Shot& Super-Resolution using Deep Internal Learning&/p&&p&Assaf Shocher, Nadav Cohen, Michal Irani&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&7&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&Learning a Single Convolutional Super-Resolution Network for Multiple Degradations&/p&&p&Kai Zhang, Wangmeng Zuo, Lei Zhang&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&6&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&Super-Resolution with Deep Adaptive Image Resampling&/p&&p&Xu Jia, Hong Chang, Tinne Tuytelaars&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&3&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&Deep Inception-Residual Laplacian Pyramid Networks for Accurate Single Image Super-Resolution&/p&&p&Yongliang Tang, Weiguo Gong, Xi Chen, Weihong Li&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&1&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&DSLR-Quality Photos on Mobile Devices with Deep Convolutional Networks&/p&&p&Andrey Ignatov, Nikolay Kobyshev, Radu Timofte, Kenneth Vanhoey, Luc Van Gool&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&0&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&Learning Reduced-Resolution and Super-Resolution Networks in Synch&/p&&p&Bolun Cai, Xiangmin Xu, Kailing Guo, Kui Jia, Dacheng Tao&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&6&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&&br&&/p&&p&High-Quality Face Image Super-Resolution Using Conditional Generative Adversarial Networks&/p&&p&CL Lin, B Huang, W Chen, X Wu&/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//arxiv.org/pdf/v1& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&7v1&/span&&span class=&ellipsis&&&/span&&/a&&/p&
近期有很多小伙伴私信我,讨论关于超分辨率上的问题,我研究的也不多,帮助大家的实在有限。很多人都问我最近的这方面的进展。有关于SR的论文我一直在追更,但由于工作繁忙,时很少能抽出时间在仔细研究了。以下这些是我在网上找到一个paper list。之前一直…
&p&谢邀。这个问题很好,我认为做降噪的同学都应该思考一下。&/p&&p&然而,我觉得已有的回答没有答到这个问题的本质。我认为题主的问题,需要通过以下三个子问题来说明:&/p&&ol&&li&为什么要做仿真噪音synthetic noise的实验?&/li&&li&在所有的synthetic noise里,为什么大家都用高斯白噪声,而不太常用其他distribution的噪声?&/li&&li&基于synthetic noise,比如高斯噪音的算法,可以适用于真实噪音吗?&/li&&/ol&&p&以下回答,我尽量不引用论文,不安利自己的工作,先说结论,后说论据,以方便阅读。&/p&&p&&br&&/p&&p&问题一:Why synthetic noise?&/p&&p&先说结论:相对于real noise,用synthetic noise的好处是便于分析问题/设计算法,便于量化和评价算法效果。&/p&&p&便于对降噪问题的分析/算法的设计:降噪的本质是对数据本身的重建,以起到排除污染(corruption)的作用。这里面涉及到需要对(1)数据,(2)污染(噪音)的模型和分析。数据的模型就是我们一般常用的那些,比如稀疏表达(sparse coding),统计(probabilistic),低秩(low-rankness),collaborative filtering之类的。这些都是基于一定的数学假设。说穿了,事实上没不存在对数据100%精确的model,或者所谓的true model。再来说噪音模型,我们一般把noise这种污染定义为一个additive或者multiplicative的随机变量。那么这个随机变量的随机分布是什么?如果知道了这个,我们就可以设计出对应的合理的算法。&/p&&p&那么如果是real noise,他是什么分布呢?没有人知道,因为real就意味着未知。噪音可以是unstructured的,也可以是structured的。real的数据里面的噪音,可以是consistent的,也可以是变动的。甚至一幅图,一个视频里的real noise在不同位置都是不一样的。那这种情况下的问题分析就是极难的,或者说这个问题本身就是untrackable的,not well defined的。&/p&&p&所以科研或者工程设计里面,都会对这类问题做出合理的假设,比如这里的:噪音是高斯白噪声。基于这个假设再来分析问题。&/p&&p&&br&&/p&&p&便于量化和评价算法效果:评价一个降噪算法的效果,需要采用一定的评价标准(metric)。我们一般把评价标准分为客观(objective)和主观(subjective)的:&/p&&p&客观标准很好理解:给我一个数学计算方式,算出这个降噪过后的数据,到底有多好。这样做清晰明了,一般没有什么好争议的。常见的这样的metric有Peak Signal-to-Noise Ratio (PSNR),Mean Square Error(MSE),Structured Similarity(SSIM),等等。你经常可以在降噪论文里面看到这三个家伙的身影。他们这些metric的绝对数值的高低,直观地反应方法效果的好坏。&/p&&p&虽然我知道也有一些工作,试着propose一些不需要ground truth的objective quality metric,但最常用的这类经典metric无一例外地需要图片的无噪音真实值(ground truth)作为参考。如果你是使用仿真噪音,你自然是有ground truth的。但如果是真实噪音,你确一般不知道ground truth是什么。&/p&&p&所以一般对于真实噪音的降噪实验,我们都只好算法一些subjective的metric:让人眼来辨认降噪出来的图效果是否好。这不同的人,可能对图的喜好也会不一样,这样就经常会产生评价的个体差异,产生争议。就算想要组织一大批人来做测试,成本会很高,不利于科研的高效性。&/p&&p&&br&&/p&&p&问题二:Why Gaussian noise?&/p&&p&先说结论:相比于其他的synthetic noise distribution,高斯噪音确实有他的合理性。在真实噪音的噪音源特别复杂的时候,高斯噪音可能算是最好的对真实噪音的模拟。&/p&&p&其实不光是深度学习的降噪算法,传统方法(好吧,自从有了深度学习以后,什么sparse coding,GMM,low-rank,collaborative filtering都变成传统方法了...)也大多喜欢用高斯白噪声来做仿真实验。那么大家不约而同地都玩儿高斯噪音可能有背后的原因。我觉得这个可能才是题主最关心的问题。&/p&&p&那这里的答案就是,采用高斯噪音,是为了更好地模拟未知的真实噪音:在真实环境中,噪音往往不是由单一源头造成的,而是很多不同来源的噪音复合体。假设,我们把真实噪音看成非常多不同概率分布的随机变量的加合,并且每一个随机变量都是独立的,那么根据Central Limit Theorem,他们的normalized sum就随着噪音源数量的上升,趋近于一个高斯分布。&/p&&p&基于这种假设来看,采用合成的高斯噪音,是在处理这种复杂,且不知道噪音分布为何的情况下,一个既简单又不差的近似仿真。&/p&&p&&br&&/p&&p&问题三:Can it work for real noise?&/p&&p&先说结论:在高斯噪音试验下效果的算法,不一定在真实噪音下效果也同样地好。这个要看真实噪音具体长啥样,还要看算法本身的设计是否对噪音分布有一定的鲁棒性。&/p&&p&在搞清楚了问题一和二之后,相信问题三应该就很好理解了:因为Gaussian noise只是对real noise的一个近似和仿真,没有任何的保证说,设计的算法在处理real noise的时候就一定要表现得同样得好。但由于问题二我们讲了,Gaussian noise test有一定的合理性,所以这类算法在real noise的情况下都会有一定的降噪功用。&/p&&p&最近有一些新的数据库,包括了真实噪音图片以及他们捕捉到的ground truth。我认为这类数据库将会带来一波专注于真实噪音除去的工作。&/p&&p&&br&&/p&&p&最后再来说说深度学习,在降噪问题上的特殊性:&/p&&p&深度学习之类算法,模型本身是高度data-driven,而不是rule-based的。换句话说,深度学习算法的设计,或者说网络结构的设计,并不强烈依赖于噪音的概率分布。这对于降噪算法的generalization是很好的。&/p&&p&然而这并不是说,深度学习的降噪算法,是对所有噪音类型通吃的。深度学习算法一般需要supervised training。这样在训练数据上的选择,确实往往依赖于噪音的概率分布:如果我们要做Gaussian noise removal,那训练数据就应该是添加了Gaussian noise的结果。那么如果我们要做真实噪音的denoising,要怎么准备训练数据?你的训练数据的噪音分布,和你的测试数据是一样的吗?这些都没有保证,或者说不一定说是consistent的。&/p&&p&但是我个人看法是,可能相对于传统方法而言,深度学习算法在从一种特定噪音的处理,generalize到未知噪音,鲁棒性应该会更高。虽然没有理论上的证明(深度学习上搞这种证明,臣妾确实办不到...),我们近期的工作也证实了这一点。这一段都是私货,如果有其他大神有对这个更好的看法,欢迎讨论。&/p&
谢邀。这个问题很好,我认为做降噪的同学都应该思考一下。然而,我觉得已有的回答没有答到这个问题的本质。我认为题主的问题,需要通过以下三个子问题来说明:为什么要做仿真噪音synthetic noise的实验?在所有的synthetic noise里,为什么大家都用高斯白噪…
&figure&&img src=&https://pic1.zhimg.com/v2-99eab1fa234bf3bcf94e09edad010d2a_b.jpg& data-rawwidth=&1289& data-rawheight=&494& class=&origin_image zh-lightbox-thumb& width=&1289& data-original=&https://pic1.zhimg.com/v2-99eab1fa234bf3bcf94e09edad010d2a_r.jpg&&&/figure&&h2&代码地址:&a href=&https://link.zhihu.com/?target=https%3A//github.com/YaqiLYU/AANAP& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&YaqiLYU/AANAP&/a&&/h2&&h2&论文:&a href=&https://link.zhihu.com/?target=https%3A//www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Lin_Adaptive_As-Natural-As-Possible_Image_2015_CVPR_paper.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&cv-foundation.org/opena&/span&&span class=&invisible&&ccess/content_cvpr_2015/papers/Lin_Adaptive_As-Natural-As-Possible_Image_2015_CVPR_paper.pdf&/span&&span class=&ellipsis&&&/span&&/a&&/h2&&h2&README.md&/h2&&hr&&p&这是CVPR 2015的图像拼接论文AANAP的MATLAB实现,基于APAP代码,论文:&/p&&p&Lin C C, Pankanti S U, Ramamurthy K N, et al. Adaptive as-natural-as-possible image stitching [C]// 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, -1163.&/p&&p&仅供学习和参考,商业用途请联系原论文作者!&/p&&p&by YaqiLYU&/p&&p&我在这里:&a href=&https://www.zhihu.com/question//answer/& class=&internal&&&span class=&invisible&&https://www.&/span&&span class=&visible&&zhihu.com/question/3453&/span&&span class=&invisible&&5199/answer/&/span&&span class=&ellipsis&&&/span&&/a&&/p&&hr&&p&HOW TO START:&/p&&ol&&li&下载APAP: 在&a href=&https://link.zhihu.com/?target=https%3A//cs.adelaide.edu.au/%7Etjchin/apap/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&cs.adelaide.edu.au/~tjc&/span&&span class=&invisible&&hin/apap/&/span&&span class=&ellipsis&&&/span&&/a& 下载APAP的MATLAB代码,解压后得到./mdlt.
我用的是Source codes [MDLT code],也就是说,仅支持两图拼接,多图拼接请自行修改,非常简单!&/li&&li&请先运行main.m,确保APAP可以正常工作。&/li&&li&下载测试图像库:继续在&a href=&https://link.zhihu.com/?target=https%3A//cs.adelaide.edu.au/%7Etjchin/apap/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&cs.adelaide.edu.au/~tjc&/span&&span class=&invisible&&hin/apap/&/span&&span class=&ellipsis&&&/span&&/a& 下载三个图像数据库,解压到./mdlt/images目录。&/li&&li&拷贝AANAP的所有.m代码到APAP根目录 ./mdlt,注意,这里的所有matlab文件都拷贝过去。&/li&&li&运行AANAP.m就能得到拼接结果了,我提供了两个选项:
设置fast_stitch=1,快速拼接模式,效果较差。
设置fast_stitch=0,高质量拼接模式,速度较慢。&/li&&/ol&&p&玩的开心!&/p&&p&版权归源论文作者所有,请不要用于商业用途。&/p&&p&&br&&/p&&h2&Reference:&/h2&&p&[1] Zaragoza J, Chin T J, Brown M S, et al. &b&As-projective-as-possible image stitching with moving DLT&/b& [C]/ /Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2013: &a href=&tel:&&&/a&.&/p&&p&[2] Zaragoza J, Chin T J, Tran Q H, et al. &b&As-Projective-As-Possible Image Stitching with Moving DLT&/b& [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence (TPAMI), ):1-1.&/p&&p&[3] Chang C H, Sato Y, Chuang Y Y. &b&Shape-preserving half-projective warps for image stitching &/b&[C]// 2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2014: &a href=&tel:&&&/a&.&/p&&p&[4] Lin C C, Pankanti S U, Ramamurthy K N, et al. &b&Adaptive as-natural-as-possible image stitching &/b&[C]// 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, -1163.&/p&&p&[5] Chen Y S, Chuang Y Y. &b&Natural Image Stitching with the Global Similarity Prior &/b&[C]// European Conference on Computer Vision (ECCV). Springer International Publishing, 1.&/p&&p&&br&&/p&&h2&EXAMPLE 1&/h2&&p&输入图像1和图像2&/p&&figure&&img data-rawheight=&603& src=&https://pic3.zhimg.com/v2-4a91a5657b1eef5a5beee0_b.jpg& data-size=&normal& data-rawwidth=&802& class=&origin_image zh-lightbox-thumb& width=&802& data-original=&https://pic3.zhimg.com/v2-4a91a5657b1eef5a5beee0_r.jpg&&&/figure&&figure&&img data-rawheight=&600& src=&https://pic3.zhimg.com/v2-b6c0a4aac2bd482a25ebe95_b.jpg& data-size=&normal& data-rawwidth=&800& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&https://pic3.zhimg.com/v2-b6c0a4aac2bd482a25ebe95_r.jpg&&&/figure&&p&关键点匹配&/p&&figure&&img data-rawheight=&601& src=&https://pic2.zhimg.com/v2-2e122a053f26ef4dafd6df941b019a37_b.jpg& data-size=&normal& data-rawwidth=&1600& class=&origin_image zh-lightbox-thumb& width=&1600& data-original=&https://pic2.zhimg.com/v2-2e122a053f26ef4dafd6df941b019a37_r.jpg&&&/figure&&p&全局单应性拼接&/p&&figure&&img data-rawheight=&750& src=&https://pic4.zhimg.com/v2-69a09f499faad22e65d97eb_b.jpg& data-size=&normal& data-rawwidth=&1354& class=&origin_image zh-lightbox-thumb& width=&1354& data-original=&https://pic4.zhimg.com/v2-69a09f499faad22e65d97eb_r.jpg&&&/figure&&p&图像1和图像2的网格变形&/p&&figure&&img data-rawheight=&470& src=&https://pic2.zhimg.com/v2-0eb48b5e06e4fdb034e980_b.jpg& data-size=&normal& data-rawwidth=&596& class=&origin_image zh-lightbox-thumb& width=&596& data-original=&https://pic2.zhimg.com/v2-0eb48b5e06e4fdb034e980_r.jpg&&&/figure&&figure&&img data-rawheight=&469& src=&https://pic3.zhimg.com/v2-773f24e3fd8cefc5d8a3568_b.jpg& data-size=&normal& data-rawwidth=&595& class=&origin_image zh-lightbox-thumb& width=&595& data-original=&https://pic3.zhimg.com/v2-773f24e3fd8cefc5d8a3568_r.jpg&&&/figure&&p&快速拼接模式&/p&&figure&&img data-rawheight=&748& src=&https://pic4.zhimg.com/v2-f87d79aa451d2_b.jpg& data-size=&normal& data-rawwidth=&1354& class=&origin_image zh-lightbox-thumb& width=&1354& data-original=&https://pic4.zhimg.com/v2-f87d79aa451d2_r.jpg&&&/figure&&p&高质量拼接模式&/p&&figure&&img data-rawheight=&708& src=&https://pic3.zhimg.com/v2-ffad84e9960b_b.jpg& data-size=&normal& data-rawwidth=&1233& class=&origin_image zh-lightbox-thumb& width=&1233& data-original=&https://pic3.zhimg.com/v2-ffad84e9960b_r.jpg&&&/figure&&h2&EXAMPLE 2&/h2&&p&输入图像1和图像2&/p&&figure&&img data-rawheight=&486& src=&https://pic1.zhimg.com/v2-2eb75e195ed05a0710efff2fd5d68dbb_b.jpg& data-size=&normal& data-rawwidth=&729& class=&origin_image zh-lightbox-thumb& width=&729& data-original=&https://pic1.zhimg.com/v2-2eb75e195ed05a0710efff2fd5d68dbb_r.jpg&&&/figure&&figure&&img data-rawheight=&484& src=&https://pic2.zhimg.com/v2-0a430cc295eaa9f3b541a_b.jpg& data-size=&normal& data-rawwidth=&728& class=&origin_image zh-lightbox-thumb& width=&728& data-original=&https://pic2.zhimg.com/v2-0a430cc295eaa9f3b541a_r.jpg&&&/figure&&p&全局单应性拼接和边界锚点&/p&&figure&&img data-rawheight=&657& src=&https://pic1.zhimg.com/v2-c8bb5d66c7d4ae21889c_b.jpg& data-size=&normal& data-rawwidth=&1276& class=&origin_image zh-lightbox-thumb& width=&1276& data-original=&https://pic1.zhimg.com/v2-c8bb5d66c7d4ae21889c_r.jpg&&&/figure&&p&快速拼接模式:&/p&&figure&&img data-rawheight=&552& src=&https://pic3.zhimg.com/v2-5cab50d7fa380beaf62945a7dec6c5e6_b.jpg& data-size=&normal& data-rawwidth=&1040& class=&origin_image zh-lightbox-thumb& width=&1040& data-original=&https://pic3.zhimg.com/v2-5cab50d7fa380beaf62945a7dec6c5e6_r.jpg&&&/figure&&p&高质量拼接模式:&/p&&figure&&img data-rawheight=&535& src=&https://pic4.zhimg.com/v2-d83fcd8e2d4184a2dcea4b_b.jpg& data-size=&normal& data-rawwidth=&1035& class=&origin_image zh-lightbox-thumb& width=&1035& data-original=&https://pic4.zhimg.com/v2-d83fcd8e2d4184a2dcea4b_r.jpg&&&/figure&
代码地址:论文:README.md这是CVPR 2015的图像拼接论文AANAP的MATLAB实现,基于APAP代码,论文:Lin C C, Pankanti S U, Ramamurthy K N, et al. Adaptive as-natural-as-possible image stitching [C]// 2015 IEEE Conf…
先复制一段百度上面的内容:在CT扫描中,凡小于层厚的病变,其CT值受层厚内其它组织的影响,所测出的CT值不能代表病变的真正的CT值:如在高密度组织中较小的低密度病灶,其CT值偏高;反之,在低密度组织中的较小的高密度病灶,其CT值偏低,这种现象称为部分容积效应。&br&
简单来说,一个CT图像的一个像素的CT值,是这一层物质的平均的CT值,只要存在层厚,就代表CT值并不是绝对精准的,这就存在了容积效应,同样的MR图像也存在层厚这个概念,所以也是存在部分容积效应的。
先复制一段百度上面的内容:在CT扫描中,凡小于层厚的病变,其CT值受层厚内其它组织的影响,所测出的CT值不能代表病变的真正的CT值:如在高密度组织中较小的低密度病灶,其CT值偏高;反之,在低密度组织中的较小的高密度病灶,其CT值偏低,这种现象称为部分…
笑看楼上楼下一群只懂皮毛,也敢指点江山的逼乎。&br&&br&项目主页&br&&a href=&//link.zhihu.com/?target=https%3A//engineering.purdue.edu/cdesign/wp/deephand-robust-hand-pose-estimation/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&DeepHand: Robust Hand Pose Estimation by Completing a Matrix Imputed with Deep Features&/a&&br&开源代码&br&&a href=&//link.zhihu.com/?target=https%3A//github.com/jsupancic/deep_hand_pose& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&jsupancic/deep_hand_pose&/a&&br&&br&跟着这个跑吧,数据集是&a href=&//link.zhihu.com/?target=http%3A//cims.nyu.edu/%7Etompson/%23& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&NYU Hand Pose Dataset&/a&&br&&br&一点人生经验:搞学术请多读重要的论文,搞工程请多用谷歌查查
笑看楼上楼下一群只懂皮毛,也敢指点江山的逼乎。 项目主页
跟着这个跑吧,数据集是 一点人生经验:搞…
&figure&&img src=&https://pic3.zhimg.com/v2-0af00bc9d0aec410dd22864_b.jpg& data-rawwidth=&1280& data-rawheight=&960& class=&origin_image zh-lightbox-thumb& width=&1280& data-original=&https://pic3.zhimg.com/v2-0af00bc9d0aec410dd22864_r.jpg&&&/figure&&p&从买第一个Arduino套装开始,我接触机器人有好几年了,但直到最近才开始做完整的课题。期间有两项技能为我打开了新世界的大门:Python和Linux。他们背后,是强大的开源社区。掌握了这两样工具的工具(元工具),你感觉网上遍地是趁手的兵器。上周在公司内部编程培训时,有一句话深得我心:我们是软件工程师,不是程序员。我们的工作不是写程序,而是合理使用工具解决问题。在Google,如果你觉得自己不得不从零开始写某项功能,只是你还没有找到相应的工具罢了。在开源社区更是如此。&br&&/p&&p&这是一个遥控小车,通过红外遥控或无线键盘可以控制小车的行动和摄像头的角度。TensorFlow实时监测摄像头拍摄到的画面,语音读出它识别出的物体。所有代码都放在我的&a href=&http://link.zhihu.com/?target=https%3A//github.com/zhaozhichen/rpi& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GitHub&/a&上。&/p&&p&这个想法不是我的原创,来自Lukas Biewald去年九月写的&a href=&http://link.zhihu.com/?target=https%3A//www.oreilly.com/learning/how-to-build-a-robot-that-sees-with-100-and-tensorflow& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&这篇博客&/a&。核心部分,TensorFlow识别摄像头图像并语音输出,是我司人工智能工程师Pete Warden的&a href=&http://link.zhihu.com/?target=https%3A//github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/pi_examples& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&开源工作&/a&。和原博客不同的是,制作过程中我加入了Arduino作为机械总控,也了解了Arduino和树莓派对话的方法(串口通信)。期间用到了许多有用的技能和工具,在这里整理一下,欢迎同好们留言交流!&/p&&p&整个课题在命令行环境完成,没有图形界面。如果你不懂Linux系统,可能有些吃力。但是,你都开始玩机器人了,怎么能不学Linux呢?我是通过《&a href=&http://link.zhihu.com/?target=http%3A//cn.linux.vbird.org/linux_basic/linux_basic.php& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&鸟叔的Linux私房菜&/a&》自学Linux的,后来又尝试&a href=&http://link.zhihu.com/?target=http%3A//www.zhaozhichen.com/347& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&从源代码搭建Linux&/a&,终于克服在Windows系统环境长大产生的对命令行的抗拒心理。相信我,克服这个障碍,你将打开新世界的大门。何况,用命令行工作才显得更酷更极客,不是吗?除了Linux,你还要懂C++和Python来完成这个课题。&/p&&p&另外,这篇文章主要介绍电子部分,不讲机械和美工。如你看到的,这个小车丑破了我的审美底线,我没花心思在外观上。我希望以后做一些兼具美学和功能的电子课题,或许会和设计师朋友们合作!&/p&&p&&strong&一、树莓派&/strong&&/p&&p&首先,你需要一个最新款的&a href=&http://link.zhihu.com/?target=https%3A//www.raspberrypi.org/products/raspberry-pi-3-model-b/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Raspberry Pi&/a&,安装好定制的Linux系统,连上无线网。你还需要一个&a href=&http://link.zhihu.com/?target=https%3A//www.raspberrypi.org/products/camera-module/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&官配摄像头&/a&,并在树莓派中&a href=&http://link.zhihu.com/?target=https%3A//www.raspberrypi.org/learning/getting-started-with-picamera/worksheet/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&设置为可用&/a&。你可以将树莓派通过HDMI连接到显示器,但更方便的做法是ssh远程登录,这样你就不用在调试过程中反复地把树莓派从小车上拔线、取下、连屏幕、然后安装回小车了,你可以实时远程修改小车的内核。甚至,我的Arduino程序也是通过树莓派编写、上传、通信的,于是也免去了电脑连接Arduino的步骤,让一切更流畅无缝。&/p&&p&树莓派的Linux系统支持图形桌面,你可以使用RealVNC(用于Windows)或TightVNC(用于Mac)远程登录图形桌面。(这个课题里不需要)&/p&&p&&strong&二、TensorFlow&/strong&&/p&&p&这是课题的核心部分,反而操作起来最简单,因为一切都在&a href=&http://link.zhihu.com/?target=https%3A//github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/pi_examples& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&这里&/a&写清楚了,按部就班就行。运行代码在&a href=&http://link.zhihu.com/?target=https%3A//github.com/zhaozhichen/rpi/blob/master/arduino/car/runTF.sh& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&这里&/a&。&/p&&p&注意:这里用了训练好的模型,即TensorFlow中预先给定了训练好的参数集,训练图片库是&a href=&http://link.zhihu.com/?target=http%3A//image-net.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ImageNet&/a&。也就是说,小车识别出的物体只能是图片库里包含的labels,也没有“学习”的过程。&/p&&p&&strong&三、小车&/strong&&/p&&p&小车套件(robot chassis)很多,选你喜欢的一款。标准的套件包括一个基座,两组马达+轮子,一个万向轮,一个电池盒。这个课题不需要四驱,而且之后要用到的马达控制器可能只支持两个马达。我用的是张尧姐送给我的第一个DIY套件:一个戳了很多洞的木板和3D打印出来的轮子和连接部件。这个恐怕是&a href=&http://link.zhihu.c}

我要回帖

更多关于 键盘电路板接线图 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信