wordpress如何搬站,北京市建设公租房网站,响应式网站有什么弊端,怎么做网页?来源#xff1a;AI科技评论纽约大学心理学教授 Gary Marcus 曾是 Uber 人工智能实验室的负责人#xff0c;他自己创立的人工智能创业公司 Geometric Intelligence 2016 年 12 月被 Uber 收购#xff0c;自己也就加入 Uber 帮助他们建立人工智能实验室。Gary Marcus 也曾号召… 来源AI科技评论纽约大学心理学教授 Gary Marcus 曾是 Uber 人工智能实验室的负责人他自己创立的人工智能创业公司 Geometric Intelligence 2016 年 12 月被 Uber 收购自己也就加入 Uber 帮助他们建立人工智能实验室。Gary Marcus 也曾号召研究人员们「借用认知科学领域的知识」更多地构建和人类类似的认识概念。然而 Gary Marcus 却不是一个令人深受鼓舞的「正面人物」实际上他曾反复对人工智能和深度学习泼冷水警告大家我们现在取得的进展多么微不足道、人们又有多么过于乐观。圣诞-元旦长假刚过Gary Marcus 在 arXiv 上传了一篇论文对现在火热的深度学习的现状进行了全面的、而且一点都不乐观的分析。他在论文中针对现在火热的深度学习指出了十个问题现把这十个问题简单介绍如下一、渴求大量的数据人类学可以根据明确的规律学习比如学会一元二次方程的三种形式以后就可以用来解各种题目也可以从不多的几个样本中迅速学到隐含的规律见过了京巴、柴犬之后再见到德牧就知道它也是一种狗。然而深度学习不是这样的「越多的数据 越好的模型表现」就是深度学习的基本规律它没有能力从字面上给出的规律学习。对企业来说IT 巨头在深度学习时代更容易凭更大的数据量建立起马太效应第二梯队的竞争者们已经开始感到担忧。学者们也对此不是很乐观Geoffrey Hinton 在近期的胶囊论文中也提到「卷积网络在新类别上泛化能力的困难度……要么在网格中复制特征检测器网格的大小随着维度数目指数增长要么同样以指数方式增加的标注训练集的大小」。对于可用的数据有限的场合深度学习往往并不是最佳的选择。二、学到的知识并不深入而且很难迁移我们都知道深度学习的「深」指的是网络的层数深、隐层数目多而人类喜欢且崇敬的对事物运行规律的深刻总结则在深度学习中无处可寻。即便对于需要和环境交互、理应更好地认识到环境规律的强化学习模型一旦环境发生任何变化它们也仍然需要重新适应——它们其实没有真的理解「墙」是什么、「通道」是什么。除了 DeepMind 的玩 Atari 游戏的强化学习模型表现出了这样的特点其它许多研究者在各自的研究领域中也都观察到了轻微改变输入数据就会造成输出结果有巨大差别的现象。深度学习模型学到的数据模式看起来要比我们认为的弱得多。三、难以处理层次化的结构举例来说对多数深度学习语言模型来说句子就是一串单词而已然而在语言学家眼中句子是有固有的层次结构的英文长句中的定语从句就是一类经典的例子同样是结构基本完整的句子从层次结构角度讲却只是某一个词或者词组的补充说明。深度学习对于各种层次化的结构都无能为力。人类可以把「煮米饭」这个目标拆分成「淘米、加水、设火力时间」几个动作逐个完成游戏 AI 也有需求找到单个操作和全局战略之间的平衡和协调。然而深度学习是提供不了层次化的理解、总结、控制等等能力的它本身学到的特征就是「平坦」的或者说是非层次化的每个特征都只是清单中的一项。所以深度学习系统自身没有能力表示出层次化结构尝试用一些技巧提取层次化结构的 Word2Vec 之类的模型就马上可以脱颖而出。然而考虑到多数任务、多数数据、多数电气系统都有显而易见的层次结构这甚至就是人类构建实用系统的基本思路深度学习在它们之上的表现都还很值得怀疑。四、对于开放性推理问题爱莫能助人类在看过书籍电影之后总能对其中的转折和故事发展提出不同于原作的见解、对作者的暗示提出种种猜想然而即便是在 SQuAD 问答数据集上表现最好的模型也只能是在给定的文本中找到最相关的词句然后把它们进行组合而已完全没有创新和理解暗示的能力。即便已经有研究者做出了尝试目前来说也没有任何深度学习系统基于真实知识做开放性推理的能力可以和人类相提并论。五、深度学习依然不够透明关于深度学习的「黑箱」神经网络问题在过去几年来一直是被广泛关注和讨论的焦点。而在今天深度学习系统动辄拥有数以百万甚至十亿计的参数开发人员难以用可解释的方式 (「last_character_typed」) 对一个复杂的神经网络进行标注 (e.g., the activity value of the ith node in layer j in network module k)。尽管通过可视化工具我们可以看到复杂网络中的个体节点所产生的贡献但更多时候研究者会发现神经网络依然是一个黑匣子一般的谜。这对于我们会产生什么样的影响犹未可知如果系统的鲁棒性足够、自适应性也做得够好那么可解释与否并不成为问题。但如果它需要被用在一些更大的系统上那么它所具备的可调试性就变得尤为重要。深度学习的透明性问题尚未被解决而对于以金融或是医学诊断为代表的应用领域它将是一个绕不过的坑毕竟人们需要向机器的决策要一个可解释的答案。就像 Catherine O』Neill (2016) 所指出的那样深度学习的不透明性将引致偏见的系列问题。六、深度学习远未与先验知识紧密结合深度学习的一个重要方向在于解释学即将它与其它的知识区隔开来。典型的深度学习方式往往是寻找一个数据集通过调参等各种方式学习输入输出的关联并掌握解决问题的方法。有少数研究会刻意地弱化先验知识比如以 LeCun 为代表的神经网络连接约束等研究。而以 Lerer et al 的研究为例团队尝试让系统学习物体从高塔上掉落的物理特性在这个研究中除了卷积隐含内容外团队没有加入物理学的先验知识。我即将发表的论文中也提及了这一点即深度学习研究者看起来对先验知识偏见不小即便这些知识都是众所周知的。此外将先验知识整合到深度学习系统中也并非易事。主要原因在于知识表征主要描述不是抽象的量化特征而是特征间的关系机器学习过于强调系统的独立性而把通用性知识排除在外。以 Kaggle 机器学习竞赛平台为例所给的数据集、所提出的问题都是给定的尽管在比赛的范式驱动下研究者已经有了长足的进步但与真实世界亟待解决的问题还有着很大差距。生活并非一场 Kaggle 竞赛。真实世界的数据并不会洗干净打包好等着你而问题也比竞赛所遇到的要复杂得多。在以语音识别为代表的有大量标记的问题上深度学习可能表现不俗。但如果是开放性的问题呢几乎没有人知道要怎么办。被绳子卡住链条的自行车怎么修我要主修数学还是神经科学没有数据集可以告诉我如何解决。与分类离得越远的问题、与常识靠得越近的问题越难被机器学习所解决。而目前据我所知也没有人尝试过解决这样的问题。七、深度学习无法区分因果性与相关性如果因果性与相关性确实不同那么两者的区分会是深度学习的一个严峻问题。简单地说深度学习习得的是输入与输出特征间的复杂关系而非因果性的表征。深度学习系统可以把人类当作整体并学习到身高与词汇量height and vocabulary的相关性但并不能了解到长大与发展间growth and development的关系。也就是说孩子随着长大会学到更多单词但不代表学习更多单词会让孩子长大。因果关系对于 AI 而言是一个核心问题但可能因为深度学习的目标并非解决这些问题因此深度学习领域很少涉足这一研究。八、深度学习对环境的稳定性提出要求这可能会存在问题深度学习目前在高度稳定的环境中工作得最好比如围棋因为它的规则不变而一旦遇到政治和经济问题这些问题会不断变化效果则不尽人意。在一定程度上来说深度学习可以应用到诸如股票预测等任务上但是有很大的可能最终会得到类似 Google Flu Trends 的结果虽然一开始的疫情预测表现良好但却没能提前预知 2013 年的流感高发季。九、深度学习目前得出来的结果只是近似值不能彻底相信从前面提出的问题中可以看到深度学习系统在某些给定领域的大部分情况下工作得很好却很容易被愚弄。越来越多的论文表明深度学习容易受到攻击比如上面提到的 Robin Jia 和 Percy Liang 在语言方面的研究以及计算机视觉领域的大规模的案例——将黄黑相间的条纹误以为校车将带有贴纸的停车标志误以为装满食品的冰箱。最近还有一些现实世界中的例子比如被轻微涂损过的停车标志被深度学习系统误认为是限速标志3d 打印的乌龟被误认为是步枪。近期还有新闻报道了英国警局系统不能正确区分裸体和沙丘。深度学习系统易受欺骗spoofability的特性可能是由 Szegedy 等在 2013 年的一篇论文中首次被提出的四年过去了经过了如此多的研究研究人员还是没能找到什么鲁棒性的解决方法。十、深度学习发展到现在还是很难工程化从上面提到的所有问题中得出的另一个事实是用深度学习来做鲁棒性工程很难。谷歌团队发表的论文 Machine Learning: The High-Interest Credit Card of Technical Debt 中他们的标题将机器学习形容为「技术债务里高利息的信用卡」这表明系统在给定了限制的环境下会工作, 但是很难保证在添加了新的数据并且这些数据与之前的训练数据存在差异的情况下能工作。在 ICML 2015 上Leon Bottou 将机器学习与飞机引擎的发展作了对比他表示飞机的设计依赖于构建复杂的系统这可以保障可靠的性能但机器学习系统的缺乏类似的保障。正如谷歌的 Peter Norvig 在 2016 年所指出的那样机器学习与传统项目相比还缺乏增量性incrementality、透明性transparency和可调试性debuggability想要实现机器学习的鲁棒性这是一项挑战。Henderson 和他的同事最近也提出了这一观点他们专注于深度强化学习指出了这一领域在鲁棒性和可复制性方面存在的一些严重问题。尽管我们在开发机器学习系统的过程中已经取得了一些进步但还有很长的路要走。诚然深度学习在计算机视觉、强化学习、NLP 等领域都优异地解决了不少疑难问题但我们在对深度学习抱有热情的同时也应当看到深度学习并不能解决所有的问题它高超的提取特征和非线性抽象的能力也远不足以构成通用人工智能的基础架构。AI 科技评论认为深度学习的研究当然要持续它的火热也为整个机器学习、人工智能界带来了大量关注和人才但言必深度学习也并不是一个良好的发展状况我们更希望各种技术和认识方法可以齐头并进合力构建出人类理想中的「人工智能」。未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能互联网和脑科学交叉研究机构。由互联网进化论作者计算机博士刘锋与中国科学院虚拟经济与数据科学研究中心石勇、刘颖教授创建。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。 如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”