作者:梦佳

1993年的你在哪里?

1993年清脆的百合已经建立了第一个卷积网络。

最近,Reddit上爆炸性地发布了1993年1分钟的视频。 在视频中,刚成立不久的杨乐村展示了当时世界上第一个能够快速准确识别手写数字的卷积网络LeNet。

据说识别出的第一个字符串是在贝尔研究所的LeCun的电话号码。

据悉,虽然画质高,也没有背景音,但当时的识别精度相当高,也能识别一定程度的变化。

LeNet是最早的卷积网络之一。

当时没有GPU,没有像样的CPU,利用几台古董机,取得了这么好的成绩。 卢昆无愧于卷积神经网络父亲的名字。

01

领衔反向传播算法,LeNet 曾读取全美10%支票

据LeCun自己介绍,LeNet于1988年至1993年诞生于新泽西州霍尔姆德尔(Holmdel )贝尔研究所的自适应系统研究部门。 著名的贝尔实验室曾被誉为这个行星上最伟大的实验室之一,晶体管、电子数字计算机、c语言、UNIX操作系统等重要发明诞生于此。 加入脸书之前,LeCun在贝尔实验室待了20年。

在20世纪80年代中期,LeCun已经表现出了非凡的才能。 1986年,在题为“learninginternalrepresentationsbyerrorpropagation”的文章中,提出了反向传播算法(BP算法),目前该算法是人工尼

英雄所见略同,雷村在博士就读期间独立发明了反向传播算法的早期版本,随后从法国巴黎远赴多伦多加入了海恩斯的团队。 大师们跨海集会推动了反向传播算法的加速发展。

kkdwbl,深度神经网络还是一门非常冷漠的学科。 正如一位读者评论的那样,“清脆的百合开始深度神经网络时,大多数人都不知道深度学习是什么。”

优秀的成就往往需要天时地利人和。 在贝尔实验室,未满30岁的LeCun访问了大量的数据集和高速运行的计算机。

在贝尔实验室,LeCun将BP算法应用于卷积神经网络,并将其实际应用于各种图像相关任务。

他建立的网络可以读取信上的手写邮政编码,采用修订后的美国国家标准技术研究院(MNIST )数据库作为一种标记数据基准。 该技术当时最主要的应用是自动读取邮件信息和识别自动取款机上银行支票的金额。 有趣的是,最难的部分其实是找支票上数字的位置。 因为每张支票都有不同的格式。

他协助开发的银行支票识别系统,从20世纪90年代末到21世纪初读取了全美国10%以上的支票。

1998年,在此基础上,LeCun在论文《Gradient-Based Learning Applied to Document Recognition》中提出了最终的神经网络结构LeNet-5,并将BP算法应用于该神经网络结构的训练中,形成了现代卷积神经网络的雏形。

LeNet-5可以用于手写机的打印识别,也可以识别极端的变化,对文字的失真和简单的几何变换具有鲁棒性。

02

从冰点期重生,三十年后卷土重来

突然回头,30年过去了。 曾经30岁的青年,如今也越过了60个大关,进入了耳顺之年。

80年代初,LeCun刚进入机器学习领域时,神经网络思想火了一阵。 只是好景不长。 虽然在德谟是星星之火,但由于遭遇了“AI冬”,没有成为燎原之势。 更复杂、更多样的机器识别需要更高的运算量,显然超过了当时的硬件设备的负荷。

原本蒸蒸日上的计划因公司内部斗争而被迫中止,LeCun也一度消沉。 鲁桑曾经在接受采访时回忆起了往事:“明明临近黎明,整个项目却几乎全部解散了。”

关于漫长的深度学习冰点,CEOnxdbwb曾经写道

人工智能领域、神经网络思想在80年代末开始衰落,此后分别经历了一些划时代的图灵奖级工作的兴起。 统计学习理论(带来支持向量机SVM算法)、可学习理论(带来Boosting算法)、概率估计)图模型(graphical model ) )几乎垄断了过去30年。 2012年的

Geoff Hinton 团队的深度学习打败Google的标志性事件前,图模型的思想横扫计算机视觉领域(超越了boosting,SVM等)。这使得深度学习生存艰难,没有多少同行在研究中使用深度学习,更多年轻学生愿意去“时髦”的机器学习研究组。

具有转折意义的是2003年。那一年,LeCun成为纽约大学教师,并与三巨头的另外两位Hinton 和 Bengio结成非正式的联盟,一个名为Neural Computation and Adaptive Perception(NCAP,神经计算和自适应感知)的项目,共同主导了神经网络的“复兴”。

 

大众狂欢的前夜是小众的“阴谋”。

 

三人小组组建后不久,Hinton 便将「神经网络」更名为「深度学习」(Deep Learning)。2006 年,Hinton发表了两篇代表性的论文:

 

A fast learning algorithm for deep belief nets;

Reducing the dimensionality of data with neural networks,

 

当中提出了深度信念网络(Deep Belief Nets)。与传统的训练方式不同,“深度信念网络”有一个“预训练”(pre-training)的过程,这可以方便地让神经网络中的权值找到一个接近最优解的值,之后再使用“微调”(fine-tuning)技术来对整个网络进行优化训练。这种分阶段两部训练技术的运用大幅度减少了训练多层神经网络的时间。深度信念网络正是深度学习爆发前夕重要的研究成果之一。

 

而令人惊讶的是,6年后的2012年,Yann LeCun的文章依然在顶会CVPR上发表困难,甚至惨遭拒稿。审稿人表示他的论文结果存疑。同年,LeCun 和 Bengio 共同创办了 ICLR(International Conference on Learning Representations,国际学习表征会议),希望为「深度学习」提供一个专业化的交流平台。

 

 

后来的故事我们都很熟悉,深度学习一度迎来了黄金时代,从学界到工业界呈现爆发式的增长,GPU带来的强大计算能力让深度学习系统有能力完成几年前计算机不可能完成的工作。“从没人做这个方向到所有人都做这个方向,只花了不到一年的时间。”

 

如今,LeCun已经年过六十,Hinton也已经年过七旬。为了这个深度的“信念”,竟然坚守了三十年。

当然,一直以来有关深度学习过誉的声音也不绝于耳。2015年,在周志华的《机器学习》一书的序言中,陆汝钤院士提到“深度学习掀起的热潮也许大过它本身真正的贡献,在理论和技术上并没有太多的创新,只不过是由于硬件技术的革命,计算机的速度大大提高了,使得人们有可能采用原来复杂度很高的算法,从而得到比过去更精细的结果。”

 

2018年,曾有学者表示,“很多研究领域都经历过萌芽期,发展期,泡沫,回归正常。深度学习显然在泡沫期,泡沫过后一地鸡毛。”

 

深度学习如今已经过了泡沫期,但显然并没有“一地鸡毛”,究其原因在于“It works”。

 

03

几点启示

最后,简单说三点启示。

 

第一,任何伟大的工作,都是站在巨人肩膀上做出的。

 

 

如今大家普遍认为 Yann LeCun 是“CNN之父”。但最早提出CNN思想的则是jzdyf(当时不叫CNN,而是Neocognitron),1980年从猫的视觉系统实验中得到的启发提出卷积和池化的思想(这又要致敬Hubel和Wiesel)。LeCun发明的 LeNet 的不同之处在于引入了BP算法,也因此把CNN发扬光大。任何伟大的工作都不是凭空想出来的,而必然是基于前人大量工作的基础上,添加了一个“细枝末节”,却产生了巨大变化。

 

第二,人工智能的最终胜利还很遥远。

有读者看罢视频评论表示,「现在所谓的AI其实还是停留kkdwbl!只有应用方面成熟了,没有突破性的进步。」对于这种声音,从业者认为,“如果以为CNN就是AI的巅峰技术,从而断言AI这几十年都没有革命性的进步,那就有点太鼠目寸光了。科学的发展都是一步一个脚印,妄言自己已经站在巅峰,未免过于狂妄。”

 

第三,“少数派”要拥有独立的见解和勇气。

回望过去10年,以深度学习为代表的人工智能技术取得了巨大进展,这个发展的过程离不开研究人员独立的见解和勇气,就像为了证明「神经网络」是有用的,三巨头坚守长达三十年,Yann LeCun曾经被屡屡拒稿,被业内人士排挤也没有忘记初心。期间,深度学习经历了低谷和复兴,最终从边缘化走向主流。

 

在过去的数年,深度学习不仅深刻改变了人工智能学科,也在许多场景中不断颠覆传统学科的研究范式,呈现出“多点爆发”的趋势。从最初的茫然无知,到后来的全民兴奋、资本涌入,到现在热潮退去、回归理性。身处其中的研究者必定要经受一番考验,选择随波逐流还是坚持信仰。

点击左下角“阅读原文”,了解更多!