一场基于深度学习的创业竟争夺起了传统时尚的话语权

2017-1-10 wlq888 全年心水料

  (原标题:一场基于深度学习的创业,竟争夺起了传统时尚的话语权)

  摘要:码隆科技的故事意味着,深度学习成为了视觉引擎的技术基石,在可以预见到的将来甚至现在,搜索本身就同时兼具了目的和结果,于是,技术本身也就具备了商业上闭环的可能性。技术本身正越来越多地成为商业背后的逻辑和驱动力。

  或许连黄鼎隆自己都没有意识到,他的名字首字母(DingLong)的缩写恰好也是深度学习(DeepLearning)的缩写。

  他和美国人码特(MattScott)创立的是一家专注于深度学习的技术公司。两位创始人,一个出生于30多年前刚刚被春风拂过的深圳,入学读博士从未有海外留学的经历;另一人则来自大苹果城纽约,身为早在90年代就来到中国并这块土地及人结下了不解之缘。

  在差异性和多元化的浪潮在太平洋彼岸的美国逐渐退却之时,在中国,两个有着不同文化背景及人生经历的人走在一起结成创业伙伴,一种微妙而有趣的关系蔓延在两人之间。

  尽管来到中国十多年,但是码特的中文依然不灵光,在接受采访时还要黄鼎隆充当翻译,但是,想必是在中国同事的耳濡目染下,码特已经习惯成自然地将C++称作“C加加”,而在黄鼎隆慢条斯理地向别人介绍公司的情况的同时,美国人却又往往扮演起热情而炽烈的布道者,他带着纽约人特有的自豪与夸耀的语气向别人讲述他对中国和中国人民的爱。

  在过去两年多的时间里,创业的两人始终处在深邃却又激烈的漩涡之中,何止是他们,还有某个因为工作上除了纰漏就哭鼻子的兼通英日双语的小姑娘,他们都在宵衣旰食的创业人生中沉浮激荡。

  又何止这家公司,在过往的两年甚至可以追溯得更久远的时间里,以人工智能及深度学习为例的技术领域和整个商业世界都在猛烈地进行着新陈代谢,而更大的现实世界更是如此。

  世界一直在变,在此变化着的世界里,那些本就各异的人,他们又发生着怎样的变化,他们又在自己力所能及的范围如何改变这个世界。

  早在两千多年前,希腊的亚里士多德(Aristotle)就说过,了解你自己是智慧的初始。然而自图灵(AlanTuring)提出他伟大的计算机和人工智能构想之后,自机器出现以后,人类就已经不再只是满足于仅仅了解自身,他们试图建筑一座后现代的技术巴别塔,让人和机器之间不再有隔阂,他们想更多地了解机器,了解蕴含于0和1里的混沌世界。

  正是这样的野心和好奇心,不断推动着人工智能和随后的机器学习深度学习的进步发展。

  1943年,.麦卡洛克(WarrenMcCulloch)和沃尔特皮茨(WalterPitts)在阈值逻辑算法的基础上提出了可以应用于神经网络的计算模型。8年后,被后人誉为“人工智能之父”的马文明斯基(MarvinMinsky)在他24岁的时候就组装了出了历史上第一台神经网络学习机器SNARC。

  年轻时的罗森布拉特来源:peoples

  基于只有简单加减法运算的两层电脑神经网络,弗兰克罗森布拉特(FrankRosenblatt)在1957年创造出了可以进行模型识别的“器”(Perceptron),他同时还提出了加入数学符号的神经网络层,而这样的想法直到整整20年后才得以实现,同时,罗森布拉特描绘的在“器”中应用的异或逻辑电系统直到保罗维博思(PaulWerbos)在近20年后提出“反向算法”(Backpropagation)时才应用到神经网络之中。

  然而,明斯基和西摩尔帕普特(SeymourPapert)在1969年出版的书里提出了计算器机器应用神经网络的两大阻碍因素,他们认定器无法处理或与逻辑电,同时,他们还相信电脑没有足够的运算能力来满足大规模神经网络的长时间运行。两位权威人物的意见意外地中断了人工智能研究的势头和方向,罗森布拉特的天才设想被业界抛弃,人工智能的发展在整个70年代几乎陷入了万马齐喑的境地。

  1971年,在43岁生日当天,罗森布拉特乘船不幸发生意外英年早逝,而就在这年,有科学家提出了利用GMDH(GroupMethodofDataHandling,数据分组处理)算法来训练组成一个8层的深度网络,直到1979年,斯坦福大学的团队终于造出了可以自行在房间内并规避障碍物的“斯坦福车”(StanfordCart),一年后,福島邦彦公布了用于识别手迹的多层神经网络“神经认知机”(Neocognitron),这套算法激发了随后的卷积神经网络的诞生。

  在1989年,法国的燕乐存(YannLeCun)团队成功地将反向算法应用了深度神经网络中以实现识别邮件上的手写邮编,但缺点同样也异常显著,他们光用算法训练深度网络就耗费了3天的时间,深度神经网络在此时显然没有任何实用性可言。

  三年后,翁巨扬提出了“生长认知网”(Cresceptron),成功地从2维和3维混杂的场景中自动识别出了3D对象,和日本科学家的神经认知机需要程序员手动合并识别中的某些特征不同的是,生长认知网可以自动学习每一层神经网络里未被监督的特征,后者还同时能在神经网络里通过后台分析将习得的项目分门别类。

  尤尔根施密特胡博(JrgenSchmidhuber)在1993年利用神经历史压缩机通过“递归神经网络”(recurrentneuralnetworks,RNNs)解决了一个同时有上千层神经网络展开的“非常深度学习”的任务。

  两年后,科学家们进一步证明了,利用算法可以成功训练一个紧密联系的6层神经网络,尽管整个训练过程耗时长达2天。根据燕乐存的估计,在初时,递归神经网络识别处理全美一到两成的手写支票。

  但是,由于在人工智能神经网络(ArtificialNeuralNetworks)过长的计算时间以及科学家们当时一直不清楚人类大脑通过生物网络自主连线的运行机理,于是,在90年代及整个千禧年初期,神经网络和深度学习在实践上并没有大规模开展。

  2014年时在Google工作的辛顿Photo:JoshValcarcel/WIRED来源:WIRED

  事实上,早在80年代中期,深度学习的相关理论就已经在机器学习领域开始得到,而到了新千年,前者也开始流传到了人工智能神经网络界,但是直到2006年,杰弗里辛顿(GeoffreyHinton)和鲁斯兰萨拉库蒂诺夫(RuslanSalakhutdinov)的研究引起了大家的关注和热情。

  他们指出,一个多层的“前向反馈神经网络”(feedforwardneuralnetwork)可以一次预训练一层神经网络并像未被监督的受限玻尔兹曼机(restrictedBoltzmannmachine)一样依次训练每一层,在此基础上调整好它对监督下的反向算法的应用。这使得提升深度学习速度有了切实的操作可能性。

  深度学习越来越多地从实验理论投入到了应用领域。

  深度学习在语音识别领域体现出了前所未有的巨大优势

  2009。

标签: 万料库全年资料

评论(0) 浏览(29)

Powered by 2016全年资料