网站素材大全,互联网公司排名1000,内网网站怎么建设,wordpress更新不了来源#xff1a;AI前线作者#xff1a;Andrew Ng译者#xff1a;核子可乐#xff0c;刘燕12 月 23 日#xff0c;机器学习大牛吴恩达#xff08;Andrew Ng#xff09;在其主编的人工智能周讯《The Batch》上发表了最新文章。文章中#xff0c;吴恩达回顾了 2021 年全球… 来源AI前线作者Andrew Ng译者核子可乐刘燕12 月 23 日机器学习大牛吴恩达Andrew Ng在其主编的人工智能周讯《The Batch》上发表了最新文章。文章中吴恩达回顾了 2021 年全球人工智能在多模态、大模型、智能语音生成、Transformer 架构、各国 AI 法律举措等方面的主要进展。2021 年即将过去。日前吴恩达发表了以“赠人玫瑰、手有余香”为主题的圣诞寄语。随着 2021 年底的临近你可能正在减少工作为寒假做准备。我很期待能暂时放下工作休息一下希望你也一样。十二月有时被称为给予的季节。如果你有空闲时间想知道如何利用它我认为我们每个人能做的最好的事情之一就是思考如何能够帮助别人。历史学家、哲学家威尔·杜兰特曾说过:“重复的行为造就了我们。”如果你不断地寻求提升他人这不仅会帮助他们或许同样重要的是它也会让你成为一个更好的人。正是你的重复行为定义了你的为人。还有一个经典的研究表明把钱花在别人身上可能比花在自己身上更让你快乐。所以在这个假期我希望你能休息一段时间。休息、放松、充电与那些你爱的、但在过去的一年里没有足够的时间联系的人联系。如果时间允许做一些有意义的事情来帮助别人。可以是在博客文章中留下鼓励的评论、与朋友分享建议或鼓励、在线上论坛上回答一个人工智能问题、或为一个有价值的事业捐款。在与教育和或科技相关的慈善机构中我最喜欢的有维基媒体基金会、可汗学院、电子前沿基金会和 Mozilla 基金会。吴恩达还谈到了 AI 社区的发展。他表示AI 社区在规模很小的时候就有很强的合作精神。这感觉就像一群无畏的先锋们在向全世界进军。人们渴望帮助别人提供建议彼此鼓励相互介绍。那些从中获益的人往往无以为报所以我们通过帮助后继者作为回报。随着人工智能社区的发展我希望保持这种精神。我承诺将继续努力建设人工智能社区。希望你也可以!我也希望你们能考虑各种方式无论大小向人工智能社区以外的人伸出援手。世界上还有很多地方没有先进的技术。我们的决定影响着数十亿美元和数十亿人的生命。这给了我们一个在世界上行善的特殊机会。吴恩达回顾了 2021 年全球人工智能的进展并展望了 2022 年以及之后 AI 技术的发展前景。回顾 2021 年过去一年以来整个世界都在跟极端天气、经济通胀、供应链中断以及 COVID-19 病毒作斗争。在科技领域远程办公与线上会议贯穿了这整整一年。AI 社区则继续努力弥合整个世界推进机器学习发展同时加强其造福各行各业的能力。这一次我们希望重点展望 2022 年及之后 AI 技术的发展前景。多模态 AI 的起飞虽然 GPT-3 和 EfficientNet 等单独针对文本及图像等任务的深度学习模型备受瞩目但这一年中最令人印象深刻的还是AI 模型在发现许可证与图像间关系中取得了进步。背景信息OpenAI 通过 CLIP实现图像与文本匹配与 Dall·E根据输入文本生成对应图像开启了多模式学习的开端DeepMind 的 Perceiver IO 则着手对文本、图像、视频及点云进行分类斯坦福大学的 ConVIRT 尝试为医学 X 射线影像添加文本标签。重要标杆虽然这些新的多模式系统大多处于实验阶段但也已经在实际应用中取得突破。开源社区将 CLIP 与生成对抗网络GAN相结合开发出引人注目的数字艺术作品。艺术家 Martin O’Leary 使用 Samuel Coleridge 的史诗作品《忽必烈大汗》为输入生成了充满迷幻色彩的“Sinuous Rills”。Facebook 表示其多模式仇恨言论检测器能够标记并删除掉社交网络上 97% 的辱骂及有害内容。该系统能够根据文本、图像及视频等 10 种数据类型将模因与其他图像 - 文本对准确划分为“良性”或“有害”。谷歌表示已经在搜索引擎中添加了多模式及多语言功能。其多任务统一模型能够返回文本、音频、图像及视频链接用以响应由 75 种语言提交的各类查询。新闻背后今年的多模态发展态势源自几十年来坚实的研究基础。早在 1989 年约翰霍普金斯大学和加州大学圣迭戈分校的研究人员就开发出一种基于元音的分类系统用以识别人类语音中的音频与视觉数据。接下来的二十年间更多研究小组先后尝试过数字视频库索引及基于证据 / 视觉数据的人类情绪分类等多模式应用方案。发展现状图像与文本如此复杂因此研究人员在很长一段时间内只能专注于其中一种。在此期间他们开发出多种不同技术成果。但过去十年中计算机视觉与自然语言处理已经在神经网络中得到有效融合也让二者的最终合璧成为可能 —— 甚至音频集成也获得了参与的空间。万亿级参数过去一年模型经历了从大到更大的发展历程。背景信息谷歌用 Switch Transformer 拉开了 2021 年的序幕这是人类历史上首个拥有万亿级参数的模型总量达 1.6 万亿。北京人工智能研究院则回敬以包含 1.75 万亿参数的悟道 2.0。重要标杆单纯拉高模型参数并没什么特别。但随着处理能力和数据源的增长深度学习开始真正确立起“越大越好”的发展原则。财力雄厚的 AI 厂商正以狂热的速度堆积参数既要提高性能、又要展示“肌肉”。特别是在语言模型方面互联网厂商为无监督和半监督预训练提供了大量未经标记的数据。2018 年以来这场参数层面的军备竞赛已经从 BERT1.1 亿、GPT-215 亿、MegatronLM83 亿、Turing-NLG170 亿、GPT-31750 亿一路走来如今终于迈过了万亿级大关。挺好但是……模型的膨胀路线也带来了新的挑战。愈发庞大的模型令开发者们面临四大严酷障碍。数据大型模型需要吸纳大量数据但网络和数字图书馆等传统数据源往往提供不了这么多高质量素材。例如研究人员常用的 BookCorpus 是一套包含 11000 本电子书的数据集之前已被用于训练 30 多种大型语言模型但其中包含某些宗教偏见因为内容主要讨论基督教和伊斯兰教义对其他宗教几无涉及。AI 社区意识到数据质量将直接决定模型质量但却一直未能就大规模、高质量数据集的有效编译方法达成共识。速度如今的硬件仍难以处理大体量模型当数据反复出入内存时模型的训练和推理速度都会受到严重影响。为了降低延迟Switch Transformer 背后的谷歌团队开发出一种方法能够让各个 token 只处理模型各层中的一个子集。他们的最佳模型预测速度甚至比参数量只有其三十分之一的传统模型还快 66%。另外微软开发的 DeepSpeed 库则选择了并行处理数据、各层及层组的路线并通过在 CPU 和 GPU 间划分任务以减少处理冗余。能耗训练如此庞大的网络会消耗大量电能。2019 年的一项研究发现在 8 个英伟达 P100 GPU 上训练一个包含 2 亿参数的 transformer 模型所造成的碳排放以化石燃料发电计算相当于一辆普通汽车五年的行驶总排放量。当然Cerebras 的 WSE-2 及谷歌最新 TPU 等新一代 AI 加速型芯片有望降低排放而风能、太阳能及其他清洁能源的供应也在同步增加。相信 AI 研究对环境的破坏将愈发轻微。模型交付这些庞大的模型很难在消费级或边缘设备上运行所以真正的规模部署只能通过互联网访问或精简版本实现——不过二者目前各有问题。发展现状自然语言建模排行榜中的主力仍然是千亿级模型毕竟万亿级参数的处理难度实在太高。但可以肯定未来几年会有更多万亿级俱乐部成员加入进来而且这种趋势仍将持续。有传闻称OpenAI 规划中的 GPT-3 继任者将包含更加恐怖的百万亿级参数。AI 生成音频内容渐成“主流化”音乐家和电影制作人们已经习惯于使用 AI 支持型音频制作工具。背景信息专业媒体制作人们会使用神经网络生成新的声音并修改旧有声音。配音演员们自然对此大为不满。重要标杆生成模型能够从现有录音中学习特征进而创造出令人信服的复制品。也有些制作人直接使用这项技术原创声音或模仿现有声音。美国初创公司 Modulate 使用生成对抗网络为用户实时合成新的语音使得游戏玩家和语聊用户能够建立起自己的虚拟角色也有跨性别者用它调整自己的声音借此获得与性别身份相一致的音色。Sonantic 是一家专门从事声音合成的初创公司。演员 Val Kilmer 于 2015 年因咽喉手术而丧失了大部分发声能力该公司则利用原有素材为他专门创造了一种音色。电影制作人 Morgan Neville 聘用一家软件公司在自己的纪录片《流浪者: 一部关于安东尼·波登的电影》中重现了已故旅游节目主持人波登的声音。但此举引起了波登遗孀的愤怒她表示自己并未许可这种行为。挺好但是……争议不止这一例。配音演员们也担心这项技术会威胁到自己的生计。2015 年年度游戏《巫师 3狂猎》的粉丝们甚至在同人 Mod 版本中用这项技术重现了原配音演员们的声音。新闻背后最近出现的音频生成主流化倾向完全是早期研究成果的自然延续。OpenAI 的 Jukebox 就使用 120 万首歌曲进行训练可利用自动编码器、转换器及解码器管道进行全实时录音生成风格涵盖从猫王到艾米纳姆等多位歌手。2019 年某匿名 AI 开发者设计出一种技术允许用户在短短 15 秒内利用文本行重现动画及视频游戏角色的声音。发展现状生成音频及生成视频不仅让媒体制作人多了一种修复并增强归档素材的能力同时也让他们能够从零开始创造新的、真假难辨的素材。但由此引发的道德与法律问题也在增加。如果配音演员被 AI 彻底取代他们的损失该由谁承担将已故者的声音在商业化作品中重现涉及哪些所有权纠纷能不能利用 AI 为已故歌手推出新专辑这么做对吗一种架构驾驭一切Transformer 架构正在快速拓展自己的影响范围。背景信息Transformers 架构最初专为自然语言处理所开发但目前已经成为深度学习领域的“万金油”。2021 年人们已经在用它发现药物、识别语音和图像等。重要标杆Transformers 已经用实际行动证明自己在视觉任务、地震预测、蛋白质分类与合成等领域的优异表现。过去一年以来研究人员开始将其推向更广阔的新领域。TransGAN 是一套生成对抗网络结合 transformers 以确保所生成的各个像素都与之前已生成的像素一致。这项成果能够有效衡量所生成图像与原始训练数据之间的相似度。Facebook 的 TImeSformer 使用该架构识别视频片段中的动作元素。它的任务不再是从文本中识别单词序列而是尝试解释视频帧中的序列关系。其性能优于卷积神经网络能够在更短时间内分析更长的视频片段因此能耗也控制在更低水平。Facebook、谷歌及加州大学伯克利分校的研究人员在文本上训练出 GPT-2之后冻结了其 self-attention 与 feed-forward 层。在此基础上他们可以针对不同用例进行模型微调包括数学、逻辑问题及计算机视觉等。DeepMind 发布了 AlphaFold 2 的开源版本其使用 transformers 根据氨基酸序列预测蛋白质的 3D 结构。该模型在医学界内掀起轩然大波人们普遍认为其具备推动药物发现和揭示生物学原理的巨大潜力。新闻背后Transformer 于 2017 年首次亮相之后迅速改变了语言处理模型的设计思路。其 self-attention 机制能够跟踪序列中各元素与其他元素间的关系不仅可用于分析单词序列还适合分析像素、视频帧、氨基酸、地震波等序列。基于 transformer 的大型语言模型已经建立起新的客观标准包括在大型未标记语料库上进行模型预训练利用有限数量的标记示例针对特定任务进行微调等。Transformer 架构良好的普适性可能预示着未来我们将创造出能解决多领域多问题的 AI 模型。发展现状在深度学习的发展过程中有几个概念曾经迅速普及ReLU 激活函数、Adam 优化器、attention 注意力机制再加上现在的 transformer。过去一年的发展证明这种架构确实具有旺盛的生命力。各国政府出台人工智能相关法律各国政府纷纷制定新的法律和提案希望控制 AI 自动化对现代社会的影响。背景信息随着 AI 对隐私、公平性、安全性及国际竞争关系带来的潜在影响各国政府也开始加大对 AI 的监管力度。重要标杆AI 相关法律往往反映出各国在政治秩序中的价值判断包括如何在社会公平与个人自由之间求取平衡。欧盟起草了基于风险类别的机器学习应用禁止或限制条例。实时人脸识别与社会信用系统被明令禁止对于重要基础设施的控制、执法协助及生物识别技术等应用方向则需要提交详细的说明文件证明 AI 方案安全可靠并持续接受人工监督。这项规则草案于今年 4 月发布目前仍在立法流程之内预计未来 12 个月内仍无法落地。从明年开始中国互联网监管机构将强制对可能破坏社会公序良俗的 AI 系统与推荐算法执行监督。打击的目标包括传播虚假信息、引导成瘾行为及危害国家安全的各类系统。企业在部署任何可能左右公众情绪的算法之前必须获得批准违规算法一律不得上线。美国政府提出一项 AI 权利法案用以保护公民免受可能侵犯隐私及公民权利的系统的影响。政府将在明年 1 月 15 日前持续为提案收集公众意见。在联邦以下多个州及市一级政府开始限制人脸识别系统。纽约市通过一项法律要求对招聘算法进行偏见审计。联合国民权高级专员呼吁各成员国暂停 AI 的某些用途包括可能侵犯人权、限制民众获取基本服务、以及滥用私人数据的情形。新闻背后AI 社区正在逐步走向监管层面的共识。最近对 534 位机器学习研究人员进行的一项调查发现68% 的受访者认为模型部署确实应该重视可信度与可靠性。受访者们对于欧盟及联合国等国际机构的信任度也普遍高于对各国政府的信任度。发展现状在中国以外大部分 AI 相关法规仍处于审查阶段。但从目前的提案来看AI 从业者必须为政府全面介入的必然前景做好准备。原文链接https://read.deeplearning.ai/the-batch/issue-123/未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市大脑研究计划构建互联网城市大脑技术和企业图谱为提升企业行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。 如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”