当前位置: 首页 > news >正文

泉州网站建设网站建设网店怎么开新手

泉州网站建设网站建设,网店怎么开新手,网站群维护方案,江门网站建设服务文 | Geoffrey Hinton整理 | 李梅、黄楠编 | 陈彩娴过去十年#xff0c;AI 在计算机视觉、语音识别、机器翻译、机器人、医学、计算生物学、蛋白质折叠预测等等领域取得了一个又一个突破#xff0c;而这些突破的背后#xff0c;均离不开深度学习。那么#xff0c;深度学习起… 文 | Geoffrey Hinton整理 | 李梅、黄楠编 | 陈彩娴过去十年AI 在计算机视觉、语音识别、机器翻译、机器人、医学、计算生物学、蛋白质折叠预测等等领域取得了一个又一个突破而这些突破的背后均离不开深度学习。那么深度学习起源于何时何地又在何时成为最突出的AI方法最近UC伯克利教授、深度学习专家Pieter Abbeel在其播客节目《机器人大脑》Robot Brains中对Geoffrey Hinton进行了一次访谈。曾获得2018年图灵奖的Hinton被称为「深度学习三巨头」之一是人工智能史上最重要的学者之一。他的论文被引用了50多万次这意味着有50万篇以上的研究论文是建立在他的研究之上。他在深度学习领域已经研究了大约半个世纪大部分时间相对默默无闻但在2012年事情发生了转折那一年凭借AlexNet在ImageNet比赛的胜出他证明了深度学习在图像识别方面比其他计算机视觉的方法具备更大的优势。这被称为「ImageNet时刻」改变了整个AI领域掀起了深度学习的浪潮。在这次对话中Hinton讲述了他从学术界到谷歌大脑的工作经历、学习心理学和当木匠的经历以及可视化技术t-SNE算法背后的历史并就一些问题发表了他的观点包括现有的神经网络和反向传播算法与大脑的运作方式有何不同为什么我们需要无监督的局部目标函数睡眠和玻尔兹曼机的功能是什么为什么培育计算机比制造计算机更好为什么需要负面数据如今的大规模语言模型真正理解了语言吗……AI科技评论在不改变原意的基础上对他们的访谈作了编辑与整理1.反向传播不同于人脑运作方式Abbeel什么是神经网络我们为什么要关注它Hinton我们的大脑是这样工作的它有很多被称为神经元的小处理元件每隔一段时间一个神经元就会发出 “ping”声而使它发出“ping”声的原因是它听到了其他神经元的“ping”声。每次它听到其他神经元的“ping”声时就会在它得到的一些输入存储中增加权重当权重达到一定输入后它也会发出“ping”声。因此如果你想知道大脑是如何工作的你只需要知道神经元如何决定调整这些权重。有一些用于调整权重的程序如果我们能够把它们弄清楚那我们就会知道大脑是如何工作的。我认为我们会在未来五年内破解这些程序。我认为所有现有的人工智能都是建立在与大脑高层次上所做的事情完全不同的基础上。 它必须趋于相同当你有很多参数假设你有数十亿的参数这些神经元间的权重在你大量训练实例的基础上去调整参数就会发生奇妙的事情。大脑是这样深度学习也是这样。问题在于你如何获得调整参数的梯度因此你要思考衡量标准及想调整的参数使它们来完善你想达成的措施。但我目前的信念是反向传播也即目前深度学习的工作方式与大脑所做的完全不同大脑是以不同的方式来获得梯度的。Abbeel你写过一篇关于训练神经网络的反向传播的论文它成为今天大家所做一切的动力而现在你说是时候弄清楚我们是否应该做些改变了是否应该将其向与大脑相似做努力你是否认为反向传播可以比大脑正在做的事更好Hinton Rumelhart、Williams和我确实写了关于反向传播的论文如下、且被引用次数最多。论文地址http://www.cs.toronto.edu/~hinton/absps/naturebp.pdf反向传播已广为人知。我们真正做的是表明了它可以学习有趣的表征并非我们发明了反向传播而是重新定义了反向传播。我们提出它可以学习有趣的表征例如单词嵌入因此认为反向传播可能比我们在大脑中的效率要高得多。将大量信息挤压到少数几个连接中而少数几个连接只有几十亿个因此大脑的问题是连接非常便宜有数以万亿计的连接 而经验是非常昂贵的所以我们倾向于在少量经验上投入大量参数。而我们正在使用的神经网络基本上是相反的。它们有很多的经验并试图把输入和输出的信息联系到参数中。我认为反向传播比大脑使用的方法更有效但并不擅长从不多的数据中抽象出很多结构。Abbeel对于这方面你有什么可能获得更好性能的方法的假设吗?Hinton 很长时间里我都认为我们需要无监督目标函数。 这里主要是指感知学习如果你能通过观察世界来学习模型那你就可以基于这个模型、而非原始数据采取行动这正确率更高。我相信大脑使用了很多局部小的目标函数它不是一种端到端的系统链通过训练来优化目标函数。举个例子如果你看张图像的一小块试图提取些表征可以将你从那小块图像中得到的表征、与通过附近其他斑块的表征而得到的上下文语境进行比较由此去预测该图像中有什么。一旦你对这个领域很熟悉这些来自上下文的预测和本地提取的特征通常会一致。如果不一致你也能从中学到很多。我认为大脑可以从这种局部分歧中学到很多东西。可能在你看来一个大图像和图像的许多小局部斑块意味着很多反馈即图像中的局部提取和上下文预测的一致。我们可以从这些与上下文预测的一致中得到更丰富的反馈。要做到这一点很难但我认为现在正沿着这条线发展。Abbeel你对SimCLR这项工作以及它与更普遍的学习的差异有什么看法你怎么看待最近的MAEMasked Autoencoders它与你刚才的描述有什么关系Hinton 我所得到的相关有证据表明这种目标函数是好的。我个人没有写过这篇论文但在很久以前曾与Sue Becker写过一篇关于从图像的两个不同斑块得到一致表征思考的论文。我认为那是关于通过在同一图像的两个块表征之间达成一致、来进行自监督学习的想法的起源。Abbeel我们来谈一谈你提到的使用端到端学习反向传播来支持端到端学习的方法。你的意思是以接近大脑的学习方式即从更少的数据中学习、提取更多数据将是在了解大脑运作方式上取得进展的关键。今天很多人正在努力解决从无标签数据中有效学习的问题因为它需要的人力更少但他们仍然使用跟反向传播相同的机制。Hinton 我不喜欢MAE的地方在于你有一些输入补丁经过多层表征在网络的输出中试图重建缺失的输入补丁。我认为大脑有这些层次上的表征但每个层都在试图重构下面那个层次的内容。并不是说经历了这么多层再返回而是有这么多层每一层都试图重建下一层的东西。在我看来这更像大脑但问题在于如果不使用反向传播你能做到这一点吗显然如果通过多个层次重建输出的缺失部分你需要通过所有层次来获得信息而反向传播已经内置于所有的模拟器中但大脑并非如此。Abbeel想象一下大脑在处理这些局部的目标时有三个选择一是我们想要优化的局部目标是什么二是用什么算法来优化它三是我们将神经元连接在一起进行学习的架构是什么在这三个问题上我们似乎都还没有做得很好。你怎么看Hinton 如果你对认知学习感兴趣那就非常清楚。你想要一个可视主题地图一种书写主题地图的层次结构架构上是局部连接的。对此你可以通过假设在反电子地图上某个位置的东西是由其对应的视神经图决定的来解决很多信用分配问题。不需深入系统而是使用局部交互、弄清楚像素在其中的作用。目前神经网络所做的是假设在每个局部性上使用相同函数卷积神经网络如此transformer也如此。大脑不一定能做到这点因为这会涉及权重共享且要在每个地方做完全相同的计算。而有一种方法能达到权重共享的目标那就是卷积我认为它在大脑中能起到更有效的作用。如果你想通过上下文预测同局部提取达成一致那么想象一下有一堆列在做本地预测并通过查看附近的列以获得其上下文预测。你可以把上下文看作是本地预测的老师反之亦然。把上下文中的信息看作是被提炼到本地提取器中。由此可得到的是相互提炼它们都在为对方提供教学信号这意味着关于你应在一个地方提取的知识正被转移到其他地方。当它们试图达成一致或者想让不同位置的事物达成一致例如希望鼻子和嘴巴同意各自是同一张脸的一部分那它们都应该产生相同的表征当你试图在不同地方获得相同表征就需要允许知识从一个地方被提炼到另一个地方这与实际的权重共享相比有更大的优势。显然从生物学角度来说一个优势是不同位置的详细架构无需相同另一个优势是前端处理无需相同。拿视网膜来说不同部分的视网膜有不同大小的感知域卷积网忽略它们多个不同的分辨率并在每个分辨率上做卷积但它们无法执行不同的前端处理。而如果从一个位置提取到另一个位置要做的就是从光学阵列获得相同函数在不同位置的表示此时在不同的位置对光学阵列采取不同的预处理也可以即使前端处理不同但仍可以提炼出表示整个功能的知识。所以虽然提取比实际显示权重效率低但它更灵活在神经系统上更可信。这也是我一年前提出一个重要看法即必须有类似权重共享的技巧来提高效率但如果你试图让相邻事物达成一致那本地提取就会起作用。Abbeel既然大脑的方式不同我们是否应该继续用另一种方式来考虑权重共享还是说我们不应该继续权重共享Hinton 我认为应该继续在卷积网中做卷积的事情在transformer中共享权重通过共享权重来共享知识。要记住大脑分享知识不是通过共享权重而是通过共享从输入到输出的功能利用提取来传递知识。2. 人脑尖峰神经元 vs. GPU人工神经元Abbeel现在还有一个话题被广泛谈论大脑与当前神经网络很不同神经元是用尖峰信号工作的跟我们GPU中的人工神经元存在很大的差异。我很好奇你对这个问题的看法这只是一个工程上的差异还是我们可能需要更多知识来更好理解Hinton 这不仅仅是工程上的不同。一旦我们理解了为什么硬件这么出色就能理解它对大脑地理标记单位视网膜是敏感的。例如视网膜不使用尖峰神经元有大量非尖峰神经的处理。一旦理解了大脑皮层的运作原因我们就会发现这是生物学的正确做法。我认为这取决于学习算法是如何得到尖峰神经元网络的梯度但目前没有人真正知道。关于尖峰神经元的问题往往会出现两种截然不同的决策它在什么时候会出现尖峰以及它会不会出现尖峰。 这就是离散决策。人们想出各种替代函数来试图优化系统。2000年Andy Brown和我有一篇关于尝试学习尖峰玻耳兹曼机的论文如果有一个适合尖峰码的学习算法就太棒了我想这是阻碍尖峰神经元硬件发展的主要原因。许多人已经意识到可以用这种方式制造更节能的硬件并且也构建了巨大的系统但真正欠缺的是一个出色的学习结果。因此我认为在得到一个好的学习算法之前我们将无法真正利用尖峰神经元做事情。因此当你采取一个标准的人工神经元时只需要问它是否能分辨输入的两个值是否相同不能。但当你使用尖峰神经元时就很容易建立一个系统两个尖峰在同时到达它们就会放电不同时间到达则不会。因此使用峰值时间似乎是一个衡量一致性的好方法。正如生物系统你之所以可以看到方向、声音来自于信号到达两只耳朵的延时如果拿一英尺来说光大约是一纳秒而第一个声音大约是一毫秒。但如果我将东西在你侧面移动几英寸到两只耳朵的时间延迟差异到两只耳朵的路径长度只有一英寸的一小部分即信号到两只耳朵的时间差只有一毫秒。因此我们对30毫秒的时间很敏感以便从声音中获得立体声。我们通过两个轴突不同方向尖峰传递来做到这一点一个来自一个耳朵一个来自另一个耳朵当尖峰同时到达就有细胞发出信号。因为尖峰时间可以被用来做非常敏感的事情那当它的精确时间没被使用时将是件令人惊讶的事。长时间以来我一直认为如果你能用尖峰时间来检测自监督学习等方面的一致性或者说我提取了你的嘴巴和鼻子的信息从嘴巴和鼻子来预测你整个面部当你的嘴巴和鼻子能正确组成一个面部这些预测就会一致。如果能用尖峰时间来观察这些预测是否一致就更好了但很难做到因为我们不知道、也没有一个好的算法来训练网络就像神经元一样。Abbeel你刚才是说视网膜不使用所有尖峰神经元大脑有两种类型的神经元有些更像我们的人工神经元有些则是尖峰神经元Hinton 我不确定视网膜是否更像人工神经元但可以肯定的是大脑新皮层有尖峰神经元这是它的主要交流模式发送尖峰从一个参数到另一个参数细胞。我有一个很好的论点大脑有非常多参数和我们使用的典型神经网络相比没有太多的数据这种状态下有可能过度拟合除非使用强大的正则化。 一个好的正则化技术是每次你使用一个神经网络你忽略了一大堆的单元因此可能也忽略神经元正在发送尖峰的事实。它们真正交流的是潜在的泊松速率。我们假设它是传递的。这个过程是有代价的它随机发送脉冲这个过程中速率是变化的由输入到神经元的信息决定你可能会想要把真实值的速率从一个神经元发送到另一个当你想做很多正则化可以把真实值的速率加上一些噪声增加噪音的一种方法是使用会增加很多噪音的脉冲大多数情况下就是退出的动机。当你观察任何一个时间窗口大多数神经元都不参与任何事情你可以把尖峰看作是一个代表性的潜在个人比率。这听起来非常糟糕因为它很嘈杂。但一旦你理解了正则化这会是个非常好的主意。所以我仍然对这个想法情有独钟但实际上我们根本没有使用尖峰计时。它只是使用非常嘈杂的个人速率表示来成为一个好的正则化器而我有点像在两者之间切换。有些年我认为神经网络是确定性的。我们应该有确定性的神经网络这是再往后几年的东西。我认为这是一个5年的周期。最好的随机性也非常重要它会改变一切。因此玻尔兹曼机本质上是随机的这对它们来说很重要。但重要的是不要完全致力于这两种情况而是要对这两种情况持开放态度。现在重要的是更多地考虑你刚才所说尖峰神经元的重要性并弄清楚如何有效地训练尖峰神经元网络。Abbeel如果我们现在说不要担心训练的部分考虑到它看起来更有效率难道人们不想分布纯粹的推理芯片也即是分别进行有效的预训练然后将其编译到尖峰神经元芯片上使它具有非常低功率的推理能力Hinton 很多人都想到了这一点这非常明智它可能在进化的道路上使用神经网络进行推理是有效的并且所有人都在这样做也被证明是更有效的不同的公司已经生产了这些大的尖峰系统。一旦你在做这些事情你会对推理越来越感兴趣可以用一种方式来学习在尖峰时期更多利用可用的能量。所以你可以想象有一个系统你学习时是使用辅助设备不是模拟硬件例如不在这个低能量的硬件上但你可以将其转移到低能量的硬件上就很好。3.AlexNet的诞生背景Abbeel什么是AlexNet它是如何产生的你从研究受限玻尔兹曼机器到试图理解大脑如何工作的路径是什么Hinton 我想说你可能突然间就证明了更传统的神经网络方法确实行得通。大约在2005年我被可以使用成堆的限制电压机器来预先训练特征检测器的想法迷住了它可以更容易地让Backdrop工作结果是有足够的数据。后来因为Faith Ali和她的图像识别团队有了足够的数据尽管预训练即将回归但不再需要预训练。GPT-3有预训练预训练也是个好主意可一旦我们发现你可以预训练这能使背景工作更好对语音有很大的帮助就像George John 和 Abdul Rahman Muhammad在2009年做的那样。此后我小组的研究生 Alex 开始将相同的想法应用于视觉很快我们发现当你有ImageNet的数据时你并不需要预训练。我记得有一天Ilya来到实验室说「看现在我们已经有了语音识别这东西真的很管用 我们必须在其他人之前做出ImageNet。」Janella也走进实验室表达了这样的想法他的学生和博士后也说「哇但是我正在忙其他的事情。」事实上他没有办法让谁致力于此。后来他说服了Alex通过对数据进行预处理来完成这个实验数据都被预处理成他所需要的。这只是背景。我想说的是很多研究人员都知道这个但可能不是每个人都知道Alex的结果和Ilya之前在ImageNet图像识别竞赛上的工作相比错误率降低了一半。这就是为什么每个人都从手工设计的方法转向计算机视觉尝试直接编程。4.从学术界到谷歌Abbeel哪一刻标志着你的职业生涯发生了重大变化从学术界到谷歌对你产生了什么影响为什么会发生这种转变Hinton 我有一个残疾的儿子需要抚养所以需要一大笔钱一个方法是教课。2012年我教了一门神经网络的课程。但他们的软件不是很好所以做起来非常烦躁。每周一章我必须给他们提供教学视频会有一大堆人要看。有时上完课第二天Yoshua Bengio会问「你为什么在课上这么说」我与多伦多大学最初的协议是如果从这些课程中赚到任何钱我希望大学将钱与教授们分享他们没有明确说明具体的分配方式但人们认为大概在50或类似我对此没有意见。但在我开始授课后教务长在没有咨询我或其他人的情况下做出了一个单方面的决定如果资金来自课程平台大学会拿走所有的钱而教授什么都拿不到。我让学校帮我准备视频制作视频的人会来问我你知道制作视频有多贵吗这让我对学校感到非常生气所以我开始考虑教授之外的其他职业选择。那个时候我们突然引起了各种公司的兴趣他们要招募我们要么是给予大额拨款要么是资助创业。通常我会说不我不想试图从研究中赚取额外的钱但那次学校骗了我钱的经历让我想找一些其他的方式来赚钱。Abbeel当时的拍卖会是一种怎样的场景Hinton 那是在NIPS会议上Terry在一个赌场里组织了一些小活动。在酒店地下室烟雾缭绕的房间里有人在楼上赌博感觉就像在拍电影。我们完全不知道自己值多少钱。我咨询了一位律师他说我可以聘请专业的谈判人员或者直接进行拍卖。据我所知这是第一次有像这样的小团体进行拍卖。我们通过Gmail进行拍卖人们必须把他们的出价用电子邮件发给我并附上电子邮件的时间戳。价格一直在涨一开始是50万美元之后是100万美元这很令人兴奋我们发现自己的价值比我们想象的要高得多。回想起来我们也许可以得到更多但我们已经看到了一个我们认为是天文数字的金额。我们都想为谷歌工作所以我们停止了拍卖并确定加入谷歌。Abbeel据我了解你今天还在谷歌。Hinton 我现在还在谷歌工作已经9年了。我喜欢谷歌的主要原因是核心团队非常好。我和Jeff Dean相处得非常好他非常聪明而我是非常直截了当的。他希望我做的正是我想做的事情也就是基础研究。他认为我应该做的是尝试提出全新的算法这就是我想做的非常适配。我不擅长管理一个大团队去提高百分之一的语音识别能力。但我很乐意最好是可以再一次彻底改变这个领域。Abbeel你曾是多伦多大学的计算机科学教授但你从来没有获得过计算机科学学位你获得过心理学学位而且你还曾做过木匠。你是如何从学习心理学、到成为一名木匠、再到进入人工智能领域的Hinton 在剑桥的最后一年我过得很艰难。考试后我就退学当了一名木匠我喜欢做木工活胜过其他任何事。高中时上完所有的课程晚上就可以呆在家里做木工活所以我成为了一名木匠做了大约6个月。但我不可能以做木匠为生。我曾是一名木匠兼装修师在装修的过程中赚了钱我很享受做木工活的乐趣。直到我遇到了一个真正的木匠才意识到我在木工方面完全没有希望。他可以用手锯把一块木头完全切成方形。和他比起来我太绝望了我决定还是回到人工智能。Abbeel据我所知你的博士是在爱丁堡大学攻读的。Hinton 是的我去那里攻读神经网络的博士学位和著名教授Christopher Longa Higgins一起做研究他真的非常出色在30多岁时就因为研究出硼氢化物的结构而差点获得诺贝尔奖。他对神经网络以及与全息图的关系很感兴趣大约在我到达爱丁堡的那天他对神经网络失去兴趣因为读了Winograd的论文而完全改变看法认为神经网络是错误的思考方式。尽管他完全不同意我所做的事情但他并没有阻止我做这件事。Abbeel70年代初在其他人都说Minsky和Papert所提出的神经网络是无稽之谈时 你为什么要做这个东西Hinton 事实上我给那个小组做的第一次演讲就是关于如何用神经网络做真正的递归。这是在1973年、即49年前的演讲。我发现的一个项目是当你想要一个能够画出形状的神经网络它把形状分成不同的部分有可能可以让一部分的形状由相同的神经硬件来画而整个形状是由神经中枢来画的神经中枢存储整个形状且必须记住它在整个形状中的位置、以及整个形状的方向和位置大小。但我现在想法改变了你想用同样的神经元来画出形状的一部分时你需要在某个地方记住整个形状是什么以及你在其中走了多远。一旦你完成了这个子程序你就可以跳回那个地方。形状这一部分的问题是神经网络如何记住它显然你不能只是复制神经元因此我设法让一个系统工作和一直适应让神经网络通过快速的重度和权重来记住它。因此我有了一个神经网络在做真正的递归重复使用相同的神经元和权重来做递归调用正如在1973年所做的高级调用一样。我认为人们不理解我的演讲因为我不擅长演讲但他们也会问为什么要在你的比赛中做递归。他们不明白的是除非我们让神经网络做递归之类的事情否则我们永远无法解释一大堆事情现在这又变成了一个有趣的问题 所以我打算再等一年直到这个想法成为一个真正的古董。当它将有50年的历史时我会写一份研究报告。Abbeel当你和大家一样是博士生或者博士刚毕业时几乎所有人都告诉你你所从事的工作是在浪费时间而你却深信并非如此你这种信念来源于哪里Hinton我想很大一部分原因是我的学校教育。我的父亲把我送到了一所昂贵的私立学校那里有良好的科学教育我从7岁起就在那里上学。那是一所基督教学校其他所有的孩子都信仰上帝但我在家里被教导说那都是胡说八道在我看来那确实是胡说八道所以我习惯了别人都是错的。我认为这很重要。你需要对科学有信念愿意去研究那些显然正确的东西即使其他所有人都说那是胡说八道 而且事实上并非所有人都那么认为。在70年代初研究AI的几乎所有人都认为我做的东西是胡说八道。但如果你再往前看一点在50年代冯·诺伊曼和图灵都相信神经网络图灵尤其相信神经网络的强化训练。我仍然相信如果他们没有早逝整个人工智能的历史可能会非常不同因为他们是强大到足以左右整个领域的智者他们还对大脑是如何工作的非常感兴趣。5.非永生计算机成本低通过学习获取知识Abbeel现在的深度学习非常有效。它是我们所需要的全部还是说我们还需要其他东西你曾说过也许我不是原文引用你的话深度学习可以做到一切。Hinton 我那样说的真正意思是用随机梯度发送一大堆参数深度学习得到梯度的方式可能不是反向传播以及你得到的梯度可能不是最终的性能测量而是这些局部目标函数。我认为这就是大脑的工作方式而且我认为这可以解释一切。我想说的另一件事是我们现在拥有的计算机对银行业务非常有帮助因为它们能记住你的账户里有多少钱。如果你去银行问他们只会告诉你大概有多少。我们无法给出确定答案因为我们无法做到那么精确只能给出一个大概。在计算机处理银行业务或操控航天飞机时我们可不希望那种事情发生我们很希望计算机能得到完全正确的答案。我认为人们还没有充分意识到我们做出了一个关于计算将如何发展的决定即我们的计算机、我们的知识将会不朽。现有的计算机有一个计算机程序或者权重很多的神经网络那是一种不同类型的程序。但如果你的硬件坏了你可以在另一个硬件上运行相同的程序。这就使得知识不朽。它不依赖于特定的硬件存活。而不朽的代价是巨大的因为这意味着不同位的硬件必须做完全相同的事情这显然是在做完所有错误校正之后的零点校正。它们必须做完全相同的事情这意味着最好是数字化的或者基本数字化它们会做一些事情比如把数字相乘这需要消耗很多很多的能量来使运算变得非常谨慎而这不是硬件的目标。一旦你想要让你的程序或神经网络不朽你就会投入到非常昂贵的计算和制造过程中。如果我们愿意放弃不朽我们将得到的回报是非常低的能源计算和非常廉价的制造。所以我们应该做的不是制造计算机而是让它们进化。 打个比喻如果你有一棵盆栽植物你把它从花盆里拔出来会得到一团球状的根部这正是花盆的形状所以所有不同的盆栽植物都有相同形状的根部而根系的细节都不一样但它们都在做同样的事情它们从土壤中提取养分它们的功能是一样的。而这就是真正的大脑的样子这就是我所说的非永生计算机的样子。这些计算机是培育出来的而不是制造出来的。你不能给它们编程它们需要在学习它们必须有一个某种程度上是内置的学习算法。他们用模拟来做大部分的计算因为模拟非常适合做一些事情比如取电压乘以电阻然后把它变成电荷再把电荷加起来芯片已经做了这样的事情。问题是你接下来要做什么你如何在这些芯片中学习。而目前人们已经提出了反向传播或各种版本的装箱机。我认为我们还需要别的东西但我认为在不久的将来我们将会看到非永生计算机它们的制造成本很低 它们必须通过学习来获取所有的知识而且它们所需的能量很低。当这些非永生计算机死亡时它们的知识也会随之死亡。看权重是没有用的因为那些权重只适用于硬件。所以你要做的就是把这些知识提取到其他计算机上。6.大规模语言模型在多大程度上理解了语言Abbeel今天那些占据头条的神经网络都是非常大的。在某种意义上大型语言模型的规模已经开始向大脑靠近非常令人印象深刻。你对这些模型有什么看法你在其中看到了什么局限性另一方面比如蚂蚁的大脑显然比人类小得多但公平地说我们人工开发的视觉运动系统还没有达到蚂蚁或蜜蜂的水平。所以对于最近语言模型的重大进步你有什么样的想法Hinton 蜜蜂的大脑可能在你看来很小但我认为蜜蜂有大约一百万个神经元蜜蜂更接近GPT-3。但蜜蜂的大脑实际上是一个很大的神经网络。我的观点是如果你有一个参数很大的系统而且这些参数是用一些合理的目标函数中的梯度下降来调整的那么你会得到很好的性能就像GPT-3那样还有我已经提到很多谷歌的类似模型。这并没有解决它们是否能做到和我们一样的问题我认为我们在做更多的事情比如我们在神经网络中做的递归。我在去年那篇关于GLOM的论文中试图阐述这些问题关于如何在神经网络中做部分孔层次结构。你肯定要有结构如果你说的符号计算只是你有部分和整体结构那么我们做的就是符号计算。这通常不是人们所说的那种偏硬的符号计算那种符号计算意味着你在使用符号你在符号上操作的规则只取决于你处理的符号字符串的形式一个符号所具有的唯一属性是它与其他符号是相同或不相同也可能是它可以作为指针来得到一些东西。论文地址https://arxiv.org/pdf/2102.12627.pdf神经网络与此非常不同所以我认为我们做的不是那种偏硬的符号处理但我们肯定做孔层次结构。但我们是在巨大的神经网络中做的我现在不太清楚GPT-3在多大程度上能真正理解它所说的话。我认为这是相当清楚的它不像以前的聊天机器人程序Eliza只是重新排列符号串而完全不知道它是在说什么。相信这一点的理由是比如你用英文说「给我一张仓鼠戴着红帽子的图片」它就会画出一张仓鼠戴着红色帽子的图片而它之前从来没有预先做过这个配对所以它必须在给出图片之前理解英语字符和图片之间的关系。如果你问这些神经网络怀疑论者、神经网络否定论者「你如何证明它理解了」我想他们也会接受。如果你让它画一幅画它就画出那副画那么它就是理解了。Abbeel最近谷歌的PaLM模型展示了它是如何对笑话的机制进行有效解释的。这似乎是对语言非常深刻的理解。Hinton 不它只是在重新排列训练中的单词。我不同意「如果不是理解了笑话所讲的是什么它怎么可能会产生那些对笑话的解释」这种想法我仍然对此持开放态度因为它的框架是反向传播的它会走向一种与我们完全不同的理解。很明显对抗性图像告诉你可以通过它们的纹理来识别物体在这个意义上你可能是正确的因为它会泛化到其他物体实例。但这是一种与我们完全不同的方法我喜欢以昆虫和花朵为例。昆虫可以看到紫外线。在我们看来相同的两朵花在昆虫看来可能完全不同。而现在因为花朵在我们看来是一样的我们就能说是昆虫搞错了吗这些花和昆虫一起进化紫外线向昆虫发出信号告诉它们这是哪朵花。很明显昆虫是正确的我们只是看不出区别而已这是另一种思考对抗性例子的方式。所以问题是在昆虫的例子中谁是对的仅仅因为两朵花在我们看来是一样的并不意味着它们真的是一样的在这种情况下可能昆虫关于两朵花是非常不同的看法是正确的。Abbeel对于我们目前神经网络的图像识别有人可能会认为既然我们创造了它们并希望它们为我们做一些事情那么我们真的不想只是承认「好吧它们是对的我们是错的」。我的意思是它们需要识别出车和行人。Hinton 是的。我只是想告诉大家这并不像你想的谁对谁错那么简单。我那篇关于GLOM的论文重点之一就是尝试建立更类人的感知系统。所以它们会更容易犯和我们一样的错误而不会犯那些不同寻常的错误。举个例子如果你有一辆自动驾驶汽车它犯了一个任何正常人类司机都会犯的错误这似乎比犯一个非常愚蠢的错误更容易被接受。7. 玻尔兹曼机、知识蒸馏与t-SNE降维算法Abbeel据我所知睡眠也是你在考虑的事情。你能详细谈一谈吗Hinton 如果你剥夺人们的睡眠他们就会变得非常奇怪比如如果你让某人保持兴奋状态三天他们就会开始产生幻觉。如果持续一个星期他们就会疯掉永远不会再恢复过来。问题是为什么睡眠的计算功能是什么如果剥夺你的睡眠会让你彻底崩溃那么这其中可能就有一些非常重要的问题值得思考。目前的理论是睡眠是用来巩固记忆的或者是用来把记忆从海马体下载到大脑皮层这有点奇怪因为这就好像你在校园里要先经过法庭一样。很久以前在80年代早期Terrence Sejnowski和我有一个叫做玻尔兹曼机的理论boltzmann machines 它部分是基于Francis Crick 的一个见解当时他在思考Hopfield Nets 他有一篇关于睡眠的论文他的观点是你可以给网络以随机的东西并让它不要满足于随机的东西。论文地址https://www.cs.toronto.edu/~hinton/absps/cogscibm.pdf所以在一个Hopfield Net中你给它一些你想记住的东西它会改变权重。所以这个矢量的能量更低。如果你给它一个随机的矢量让能量变高效果会更好这就引出了玻尔兹曼机我们就是通过它来实现的。如果你给它的不是随机的东西你就会得到由模型自身的马尔可夫链所生成的东西。减少这种可能性并增加数据的随机性这实际上是一种最大似然学习。我们认为这就是睡眠的意义。睡眠是学习的消极阶段。在对比学习的过程中对于来自同一图像的两个补丁你尝试让它们有相似的表现对于两个来自不同图像的补丁你尝试让它们有非常不同的表现。一旦它们不同你要做的就不是让它们变得更加不同而是让它们不再太过相似这就是对比学习的原理。现在有了玻尔兹曼机器你就无法把积极和消极的例子分开。你必须把积极例子和消极例子交叉在一起否则整个事情就会出错。我试过不让它们交叉要做很多积极例子然后再做很多消极例子这是很难的。在对比学习中你可以把积极阶段和消极阶段分开。所以你可以做很多正对的例子然后做很多负对的例子。所以如果你能把积极和消极的阶段分开在不同的时间进行做一大堆积极的更新然后再做一大堆消极的更新这就会使得对比学习更加合理。即使是标准的对比学习你也可以做得比较好你必须使用很多动量之类的东西。所以我认为睡眠的功能很有可能是做遗忘或做消极例子这就是为什么你会不记得你的梦。 当你醒来的时候你会记得那些在快权重中的内容因为快权重是一个临时存储。但当你醒来时你只记得你醒来时做的梦的最后一分钟我认为这是一个比其他任何睡眠理论都更可信的睡眠理论。如果把这一刻记忆去除就能解释为什么整个系统就会崩溃。你会犯灾难性的错误开始产生幻觉做各种奇怪的事情。我再多说一点关于对消极例子的需求。如果你有一个神经网络它试图优化一些内部目标函数关于它的表现形式或者关于上下文预测和局部预测之间的一致性。它希望这种一致性成为真实数据的属性而神经网络内部的问题是你可能会在输入中得到各种各样的关联。假设我是一个神经元我的输入中有各种各样的相关性而这些相关性与真实的数据无关它们是由网络的布线以及网络中的方式带来的。如果这两个神经元都在看同一个像素它们就会有关联。但这并没有告诉你任何关于数据的信息所以问题是如何学会提取关于真实数据的结构而不是关于网络连接。要做到这一点方法就是给它提供积极例子在积极例子而非消极例子中找到结构因为消极例子会经过完全相同的线路。 如果消极例子里没有这个结构但在积极例子里有那么这个结构就是关于消极例子和积极例子之间的区别而不是你的连接方式。所以尽管人们对这一点没有太多思考但如果你有强大的学习算法你最好不要让它们学习神经网络自己的权重和连接。Abbeel你还提到了「学生模型打败老师模型」的概念。这是什么意思Hinton MNIST是一个标准的数字数据库你可以错误的标签来替换训练数据得到一个数据集其中的标签有20%的正确率和80%的错误率。问题是你能从这个数据集中学习吗学习的效果如何答案是你可以学习到95%的正确率。假设老师模型teacher model有80%的错误率而学生模型student model有95%的正确率所以学生比老师要好很多。你是把这些训练例子一次打包所以你不能对恰好有相似图像的不同训练案例的错误进行平均化。如果你问若你有损坏的案例你需要多少训练案例这很有意思因为图像数据集很小。你是愿意有一百万个标签错误的图像还是愿意有一万个标签准确的图像我有一个假设重要的是标签和准确性之间的互信息量。如果标签是正确地被损坏了那么90%的情况下标签和准确性之间没有互信息如果它们损坏80%就只有少量的互信息。我注意到你们最近做了一些sim-to-real的工作你们用神经网络给真实的数据打上不完美的标签然后学生从这些标签中学习而且学生比老师学得更好。人们很困惑学生怎么可能比老师更好但在神经网络中这很容易实现。如果有足够的训练数据即使老师很不靠谱学生也会比老师更好。我几年前和Melody Y. Guan写过一篇关于这个的论文里面使用了一些医学数据。论文的第一部分谈到了这个我们的经验法则是被分配的标签和准确性之间的互信息才是重要的。论文地址https://www.cs.toronto.edu/~hinton/absps/WhoSaidWhat.pdfAbbeel关于你刚才提到的我们那项工作以及最近一些非常受欢迎的工作通常老师会提供带噪音的标签但并不是所有的噪音标签都被使用。有一种观点认为只需要看那些更有信心的老师。Hinton 这是一个很好的方法只看那些你有理由相信的东西可能会有所帮助。在MNIST中Melody绘制了一个图表只要你有20%的标签是正确的学生就会有95%的正确率。但当下降到大约15%时你就会突然得到一个相变此时你能做的只能是碰运气因为无论如何学生一定会得到它老师在说这些标签时学生在某种程度上要了解哪些例子是正确的哪些例子是错误的。一旦学生看到标签和输入之间的关系那么一个错误标签的错误性就很明显。所以如果它被随机地错误启用了也没关系但是有一个相变在这个相变中你必须让它足够好学生们能明白这个道理。这也解释了为什么我们的学生都比我们聪明。Abbeel在神经网络的学习中尤其是当你建立模型的时候你要理解它是什么它在学习什么。通常人们试图在学习过程中把所发生的事情可视化你发明了最流行的可视化技术之一t-SNEt-Distribution Stochastic Neighbor Embedding它背后的故事是什么论文地址http://www.cs.toronto.edu/~hinton/absps/tsne.pdfHinton 如果你有一些高维数据你试着画一个二维或三维的地图你可以取前两个主分量只画出前两个主分量。但是主分量关心的是如何让大距离正确。所以如果两个东西非常不同主分量会非常担心它们在二维空间中差异很大。它根本不关心小的差异因为它是在大的差异的平方上操作的所以它不能很好地保持高维度相似性。但我们感兴趣的往往恰恰相反对于得到的数据我们感兴趣的是什么和什么非常相似而不关心大的距离是否有一点错误只要小的距离是正确的就行。我很久以前就有了这个想法如果我们把距离转化成成对的概率会怎么样t-SNE有各种不同的版本假设我们把它们变成概率对比如距离小的对概率高距离大的对概率低。我们把距离转换成概率小的距离对应大的概率在一个数据点周围放一个高斯分布然后在这个高斯分布下计算其他数据点的密度这是一个非标准化的概率然后将其归一化。接着把这些点放在二维空间中以保持这些概率。所以它不关心两点之间是否相距很远。它们的成对概率很低它不关心两个点的相对位置。这就产生了非常漂亮的地图这被称为随机邻域嵌入。我们想到放入一个高斯分布然后根据高斯分布下的密度随机选择一个邻居它有非常简单的导数。我们得到的地图倾向于把东西挤在一起这是在把高维数据转换成低维数据时存在一个的基本问题。这是由高维空间和低维空间的本质带来的。在高维空间中一个数据点可以接近很多其他点而在一个低维空间中这些点之间不会太近。如果它们都很接近这个数据点它们之间就必须很接近。所以你在从高维到低维的嵌入上会遇到问题。当我在做t-SNE的时候我有一个想法我用概率作为一种「中间货币」来做一个混合模型。我们成功地实施了这个想法但我们始终没有把它做得很好。我很失望人们没能利用这个想法然后我又做了一个更简单的版本它是高斯分布和均匀分布的混合效果更好。其中的想法是在一张地图上所有的对都是等概率的这就提供了一种经过大距离的背景概率即一个小的背景概率在另一张地图中你贡献的概率与你在这张地图中的平方距离成比例但这意味着在这张地图中如果它们愿意它们可以相隔很远因为它们需要一些概率的这个事实被均匀化处理了。实际上这个版本是使用高斯分布混合的一个特例是一个非常广的高斯分布它是均匀的。如果我们用一整个高斯函数层级会如何呢很多高斯函数具有不同宽度称为t分布这带来了t-SNE。t-SNE有一个很好的属性它可以提供事物的多尺度信息一旦距离变大你会从中得到许多结构化的不同层次包括整体结构和精细结构。目标函数被用在所有这些工作中这是一种相对密度下的高斯来自我和Alberto Pacinero早些时候所做的工作当时发表过程很难我收到过一篇被会议拒绝的评论「Hinton已经为这个想法工作了7年但没有人感兴趣」。我认为这些评论其实告诉了我我正在做非常有创新性的东西它实际上包含了一个函数叫做NCE它使用了对比方法t-SNE实际上是这个函数的一个版本。但t-SNE是用来做地图的后来我尝试做一个混合版本它最初一直行不通直到最终得到一个巧合就是我想要使用的t分布。视频链接https://www.youtube.com/watch?v2EDP4v-9TUA后台回复关键词【入群】加入卖萌屋NLP、CV与搜推广与求职讨论群后台回复关键词【顶会】获取ACL、CIKM等各大顶会论文集
http://www.zqtcl.cn/news/849447/

相关文章:

  • 个人搭建网站教程王牌网站做代理
  • 网站地图什么意思电子商务营销推广
  • 手机排行榜网站教育平台网站开发
  • 佛山市顺德区建设局网站萧山网站建设
  • 合肥百度团购网站建设怀化网站开发
  • 网站建设ppt模板彩票网站开发dadi163
  • 网站建设4435建筑设计一般用什么软件
  • 河南网站建设重庆森林台词
  • 网站一直没收录雄安做网站
  • 全国网站直播平台被摧毁响应是网站怎么做
  • 衡阳建设网站做网站和app多少费用
  • 怎么做付费网站蚌埠网站建设专业公司哪家好
  • 学网站建设需要多长时间成都网站建设定制开发服务
  • 建站宝盒后台深圳建网站公司怎么选择
  • 什么是大型门户网站网站建设的经验之谈
  • 网站建站网站设计网站制作书生
  • 租号网站是怎么做的wordpress 快讯功能
  • 口碑好的盐城网站建设wordpress课堂主题
  • 网站品牌打造wordpress插件有木马
  • 网站开发与软件研发有什么区别查网站域名备案查询系统
  • 硬盘做免费嗳暧视频网站黄冈免费网站推广平台汇总
  • node做网站怎么知道蜘蛛来过怎么学网站设计
  • 青海省建设厅网站公示公告简单建站
  • 手机网站用什么后台wordpress 百度蜘蛛
  • 网站文章伪原创怎么做手机网站 程序
  • 网站建设每月工作多少开发小程序的目的
  • 社区网站建设方案pptwordpress用户名在哪看
  • 浙江企业响应式网站建设公司简介如何写
  • 自己做静态网站的步骤店面设计在线
  • 活动汪活动策划网站wordpress 无法保存