当前位置: 首页 > news >正文

郓城县住房和城乡建设局网站网站建设投票系统总结

郓城县住房和城乡建设局网站,网站建设投票系统总结,商城app开发价格,上海网站制作的来源丨Forbes作者丨Rob Toews编译丨科技行者和当今的深度学习方法相比#xff0c;我们大脑的效率高得不可思议。它们只有几磅重#xff0c;大概只需要20瓦左右的能量消耗#xff0c;这个能耗只能够给昏暗的灯泡供电。然而#xff0c;它们代表了已知宇宙中最强大的智力形式。… 来源丨Forbes作者丨Rob Toews编译丨科技行者和当今的深度学习方法相比我们大脑的效率高得不可思议。它们只有几磅重大概只需要20瓦左右的能量消耗这个能耗只能够给昏暗的灯泡供电。然而它们代表了已知宇宙中最强大的智力形式。本月早些时候OpenAI宣布已经建成史上最大的人工智能模型该模型规模惊人被命名为“GPT-3”是一项令人印象深刻的技术成就。然而它却凸显了人工智能领域的一个隐患。现代人工智能模型需要消耗大量能量并且这些能量需求正以惊人的速度增长。在深度学习时代产生一流的人工智能模型所需的计算资源平均每3.4个月翻一番这意味着能量需求在2012年至2018年之间增加了300,000倍。而“GPT-3”只是这种指数级增长轨迹上的一个最新节点。深度学习模型真的越大越好吗在今天人工智能的碳足迹是有意义的而如果这个行业趋势继续下去情况将很快变得糟糕得多。除非我们愿意重新评估并改革当今的人工智能研究方向否则人工智能领域可能会成为我们在未来几年中应对气候变化的对手。GPT-3很好地说明了这种现象。该模型包含多达1750亿个参数。如何理解这个数字呢不妨参考一下它的前身模型GPT-2它在去年发布时被认为是最先进的GPT-2只有15亿个参数。去年GPT-2的训练耗费了数十千兆次/天这个计算输入的数量已经非常庞大了而GPT-3需要的数量可能是GPT-2的好几千倍。依靠越来越大的模型来推动人工智能技术进步这种做法的问题在于构建和部署这些模型需要大量的能源消耗并因此产生碳排放。在2019年一项被广泛讨论的研究《Energy and Policy Considerations for Deep Learning in NLPNLP深度学习的能源和政策考虑》中由Emma Strubell领导的一组研究人员评估了训练单个深度学习模型的能量消耗这个数值可能高达626,155磅的二氧化碳排放量——约相当于五辆汽车在整个生命周期内的碳足迹。相比之下一个普通的美国人每年产生的二氧化碳排放量大约是36,156磅。可以肯定的是这项评估针对的是能耗特别高的模型。如今训练一个普通规模的机器学习模型产生的碳排放量应该远远小于626,155磅。同时值得注意的是在进行这项分析时GPT-2是当时可供研究的、最大的模型研究人员将其视为模型大小的上限。可仅仅一年之后GPT-2看上去很袖珍了比它的后继产品小了一百倍。那么机器学习模型到底为什么会需要消耗这么多的能量呢第一个原因是用于训练这些模型的数据集的大小在不断地膨胀。在2018年BERT模型在使用了30亿个单词的数据集进行训练之后实现了同类中最佳的NLP自然语言处理性能。XLNet使用了320亿个单词的数据集进行训练并且在性能上超过了BERT。不久之后GPT-2接受了400亿个单词的数据集的训练。而让之前所有此类工作都相形见绌的是GPT-3将使用一个包含5,000亿个单词的加权数据集进行训练。在训练过程中神经网络会针对输入的每条数据执行一整套冗长的数学运算既包括正向传播也包括反向传播并且以复杂的方式更新其参数。因此更大的数据集就会转化为飞速增长的计算和能源需求。导致人工智能巨大能量消耗的另一个原因是开发模型所需要进行的大量实验和调校。今天的机器学习在很大程度上仍然是反复试错的练习。从业人员通常会在训练过程中针对给定模型构建数百个不同的版本在确定最佳设计之前他们会尝试不同的神经体系架构和超参数。上述提到的那篇2019年研究论文中描述了一个案例研究。研究人员们选择了一个平均规模的模型——比GPT-3之类的博人眼球的庞然大物要小得多并且不仅检查了训练最终版本所需的能量还测量了为了生产这个最终版本进行的各种测试的总体能量消耗。在六个月的过程之中他们培训了4,789个不同版本的模型总共需要花费9,998天的GPU时间超过27年。考虑到所有这些因素这些研究人员估计构建该模型总计要产生78,000磅的二氧化碳排放量超过一个普通美国成年人两年的碳排放量。到此为止这次讨论还仅仅涉及了机器学习模型的训练环节。但是训练只是一个模型生命周期的起点。模型训练完成之后就会在现实世界中得到应用。部署人工智能模型让它们在现实环境中采取行动——这个过程被称为推理该过程的能耗比训练环节更高。实际上英伟达公司Nvidia估计神经网络80至90的能量消耗出现在推理环节而不是训练环节。例如想想自动驾驶汽车中的人工智能。首先必须要对神经网络进行培训让它学会驾驶。在训练完成并部署到自动驾驶汽车上之后模型会不断地进行推理才能在环境中行驶只要汽车还在使用之中这个过程就会日复一日地持续下去。毋庸置疑模型具有的参数越多对这种持续不断的推理的能量需求就越高。能源使用和碳排放既然提到了人工智能能量消耗和碳排放之间的关系。那么思考这种关系的最好方式是什么呢EPA数据显示在美国一千瓦时的能耗平均会产生0.954磅的二氧化碳排放量。这个平均值反应了美国能源网中不同能量来源例如可再生能源、核能、天然气、煤炭的相对比例和碳足迹的变化。上述提到的那篇2019年研究分析采用了全美国的平均值以便根据各种人工智能模型的能量需求来计算碳排放量。这是一个比较合理的假设。例如亚马逊网络服务公司Amazon Web Services的电力来源组合大致反应了美国整体的电力来源而且绝大多数的人工智能模型都是在云端进行训练的。当然如果使用主要由可再生能源产生的电力训练人工智能模型那么碳足迹也会相应地降低。例如与AWS相比谷歌云平台Google Cloud Platform使用的电力结构在可再生能源方面的比重更大。上述那篇2019年研究论文显示两家公司的这一比例分别为56%和17%。或者举另一个例子如果在太平洋西北部的硬件上训练一个模型所产生的碳排放量会低于其他国家这是因为这一地区拥有丰富的清洁水源。而在这方面每一家云服务提供商都在鼓吹自己在碳补偿方面的投资。总体而言使用美国总体能源平均值应该可以大致准确地估算出人工智能模型的碳足迹。效益递减通过不断变大的模型追求人工智能进步的做法凸显了模型规模和模型性能之间的关系。下列数据显示得很清楚模型规模的增加最终会导致性能回报的急剧下降。比如ResNet是2015年发布的一个著名计算机视觉模型。该模型的改进版本称为ResNeXt于2017年问世。与ResNet相比ResNeXt所需的计算资源要多35以总浮点运算来衡量准确度却只提高了0.5。艾伦人工智能研究所Allen AI Institute2019年的一篇论文提供了详细的数据记录了不同任务、模型和人工智能子领域中的效益递减问题。与GPT-2相比最新发布的大型模型GPT-3出现了明显的效益递减迹象。如果人工智能社区仍然继续沿着当前的研究方向前进就会不断的构建越来越大的模型耗费越来越多的能源以实现越来越小的性能提升。任何成本/收益分析都会变得越来越比例失调。既然存在效益递减的问题又是什么在推动着模型不断地朝着越来越大的方向发展呢一个主要的原因是当前人工智能社区对获取“最好的”性能基准测试结果非常关注。构建一个新模型能够在性能基准测试中创下新的准确性记录即便成绩提升仅仅是微不足道的一点也可以赢得研究人员的认可和好评。正如加州大学洛杉矶分校UCLA的教授Guy Van den Broeck所说“我认为对这种情况的一个最好的比喻就是某个富油的国家能够建造一座很高的摩天大楼。当然建造这样的东西需要花很多钱还有很多的工程工作。你也确实可以在建造这座高楼的时候获得‘最先进的技术’。但是……这件事在本质上并没有什么科学上的进步。”在当前的人工智能研究领域占据主导地位的“越大越好”思路可能会在未来几年对环境造成重大的破坏。需要在这个领域内进行思虑周详但又大胆的变革让人工智能技术的发展变得更加可持续并更具生产力。展望未来首先每一位人工智能从业人员都应该考虑如何在短期内“快速制胜”以减轻其研究对碳足迹的影响。重要的第一步是提高这个问题的透明度和度量程度。当人工智能研究人员们发布新模型的结果时除了性能和准确性指标之外他们还应该公布在模型开发中消耗了多少能量的数据。经过深入彻底的分析艾伦人工智能研究所的团队建议将「浮点运算」作为研究人员追踪的最通用、也是最有效的能效度量标准。另一组研究人员创建了一个机器学习排放计算器从业人员可以使用这个计算器来评估他们构建的模型的碳足迹根据硬件、云服务提供商和地理区域等因素。遵循这些思路综合考虑能源成本和性能收益的做法将成为研究人员们在训练模型时的最佳实践。明确地量化这种关系将促使研究人员在面对效益递减问题时对资源分配做出更明智、更平衡的决定。随着可持续人工智能实践的扩散希望人工智能社区能够在评估人工智能研究的时候开始考虑这些效率指标就像今天我们对传统性能指标例如准确性采取的做法一样在会议论文提交、演讲、学术角色中考虑它们。还有一些已经相对比较成熟的方法能够帮助人工智能技术在近期减少碳足迹使用更有效的超参数搜索方法、减少训练过程中不必要的实验次数、使用更高能效的硬件等。但是单靠这些补救措施并不足以解决这个问题。人工智能领域需要更根本的长期转变。我们需要退后一步并且承认仅仅依靠建立越来越大的神经网络并非通往通用智能的正确途径。我们需要推动自己去发现更优雅、更有效的方法来对机器中的智能进行建模。我们正在持续不断地同气候变化进行斗争这是一场关乎地球未来的战争。在此引用人工智能传奇人物、深度学习教父Geoff Hinton的话“未来取决于那些‘对我所说的一切’都深表怀疑的研究生……我的观点是将其全部抛弃并重新开始。”人工智能社区必须开始致力于开创人工智能的新范例这些范例应该既不需要指数级增长的数据集也不需要庞大的能源消耗。小样本学习few-shot learning等新兴研究领域都是有前途的途径。人类的大脑——智力的原始来源提供了重要的启发。和当今的深度学习方法相比我们大脑的效率高得不可思议。它们只有几磅重大概只需要20瓦左右的能量消耗这个能耗只能够给昏暗的灯泡供电。然而它们代表了已知宇宙中最强大的智力形式。人工智能研究人员Siva Reddy指出“人类的大脑用很少的能量消耗就能够完成令人惊叹的事情。问题是我们如何建造出这样的机器来。”未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。  如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”
http://www.zqtcl.cn/news/770453/

相关文章:

  • 广西网站建设推荐wordpress 宣布停止
  • 专注网站制作青岛景观设计公司排名
  • 安庆做网站网站代理建设网站观澜
  • 网站开发需求收集 模板cms做门户网站
  • dw网站首页的导航怎么做有大佬给个网址吗
  • 一个网站怎么做聚合洛可可设计公司贾伟
  • 什么是优化型网站网页设计作业在线网站首页
  • 关于网站建设广告词英文案例网站
  • 有哪些可以做策划方案的网站国家域名
  • vk网站做婚介做seo排名好的网站
  • 广州企业网站建设公司苏州建网站提
  • html如何做购物网站天元建设集团有限公司法人代表
  • 教育培训机构排名seo是搜索引擎营销
  • 做奢侈品网站有哪些沧州手机建站哪家好
  • 德州网站网站建设广西房管局官网
  • 白石桥做网站公司seo顾问服务四川
  • 网站建设注册哪类商标十大网页设计公司
  • 网站建设的源代码有什么作用金华网站建设优化技术
  • 个人网站申请做瞹瞹嗳视频网站在线观看
  • 做网站 融资玉石网站建设的定位
  • 自己做的网站字体变成方框seo同行网站
  • 宁波网站建设培训微信小程序开发平台官网
  • 西部数码做的网站打不开哈尔滨模板建站推荐
  • 外贸网站建设流程杭州软件定制开发
  • 网站的首页面设计软文推广特点
  • 网站描述在哪里写网页设计图片怎么换
  • 深圳网站关键词优化推广做mod游戏下载网站
  • 通达oa 做网站wordpress动转换标签别名
  • 三亚学做网站培训招聘网站排名
  • 企业网站建设费用需要多少钱怎样下载建设银行信用卡网站