网站建设公司开发企业北京网站,项目计划书格式模板,邵阳建设网站,goggle营销型网站效果来源#xff1a;AI科技评论编译#xff1a;陈彩娴、琰琰近日#xff0c;一篇名为“How OpenAI Sold its Soul for $1 Billion”#xff08;OpenAI是如何因为 10 亿美元出卖自己的灵魂#xff09;的文章在 Reddit 上引起了热议。文章作者 Alberto Romero 抨击知名的非营利机… 来源AI科技评论编译陈彩娴、琰琰近日一篇名为“How OpenAI Sold its Soul for $1 Billion”OpenAI是如何因为 10 亿美元出卖自己的灵魂的文章在 Reddit 上引起了热议。文章作者 Alberto Romero 抨击知名的非营利机构 OpenAI 为了金钱而出卖自己原有的“为人类造福”宗旨。OpenAI 成立于 2015 年创立之初便将自己定位为“非营利组织”目标是以安全的方式实现通用人工智能AGI使全人类平等收益而不是为公司的股东创造利润。但在 2019 年OpenAI 违背了它的初衷成为了一家名为“OpenAI LP”的营利性公司由一家名为“OpenAI Inc”的母公司控制。这时OpenAI 成了一家有利润上限的机构股东的投资回报被限制为不超过原始投资金额的 100 倍。也就是说如果你投资 1000 万美元你最多能得到 10 亿美元的回报。OpenAI 的结构改了之后没几个月微软就注资了 10 亿美元。而微软与 OpenAI 的合作关系是基于一个重要前提即微软有权将 OpenAI 的部分技术商业化比如 GPT-3 与 Codex。今年 5 月末微软的官方网站便报道了他们用 GPT-3 的技术赋能内部商业产品为用户服务微软新闻https://blogs.microsoft.com/ai/from-conversation-to-code-microsoft-introduces-its-first-product-features-powered-by-gpt-3/当 OpenAI 因金钱关系与大型商业公司达成合作协议我们还能相信他们会信守承诺从全人类的福祉出发来发展人工智能吗亦或是技术终将沦为资本的俘虏情怀也难逃被出卖的命运1金钱始终排在第一位文章作者 Alberto 指出OpenAI 的技术野心决定了它难逃要与资本合作的宿命。作为一个高定位的人工智能研究实验室OpenAI 的雄心壮志要求它必须获取足够的资源支持其中金钱始终是排在第一位。比方说去年夏天火热全网的 GPT-3在训练阶段就已花费了大约 1200 万美元GPT-3 是一个大规模语言模型光参数量就已达到 1750 亿。如果不寻求交易他们很难获得这么雄厚的研究经费。所以在他们意识到需要投资时发现微软当时正等着给自己提供云计算服务交换条件是微软届时能将它们尚未成熟的系统商业化。这时一方可以获得计算资源一方可以达到盈利何乐而不为呢早在2020年2月麻省理工科技评论的记者 Karen Hao 就发表了一篇文章探究了 OpenAI 与微软的合作。Karen Hao 在“The messy, secretive reality behind OpenAI’s bid to save the world”一文中明确指出经过对 OpenAI 内部员工的数次采访她发现 OpenAI 的公开宣称内容实现通用人工智能、使人类平均受益与内部的运营方式存在不一致之处。新闻链接https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/为什么一家以造福全人类为基础的公司突然需要大量的私人资金要知道从创立之初Open AI 就获得了马斯克、Sam Altman与 Peter ThielPaypal 创始人等人 10 亿美元的私人投资。OpenAI 从非营利到营利的转变不仅引起了公众舆论的不解也在公司内部遭到了批评。艾伦人工智能研究所的所长 Oren Etzioni 在得知微软注资 OpenAI 时当时即表示怀疑态度称“我不同意非营利组织不具备竞争力的观点……如果规模更大、资金更多就代表这个机构会发展地更好那 IBM 就不会被挤下第一名的位置。”Vice News 的知名撰稿人 Caroline Haskins 也认为OpenAI 已经违背了他们当初的使命“我们从来没有试过靠风险投资者来改善人类的命运。”我们不得不承认OpenAI 将研究重点放在需要由更大算力与更大数据驱动的神经网络上这必然需要很多金钱。但是Alberto 也指出如 Oren Etzioni 所言金钱并不是取得最先进的 AI 成果的唯一途径。更多时候你需要的是极富创造性的想法而不是靠堆更多的算力或更多的数据。2OpenAI 是如何沦落的GPT-2 与 GPT-3 的诞生2019 年初已经成为营利性公司的 OpenAI 发布了一个强大的语言模型——GPT-2能够生成达到人类水平的文本。尽管 GPT-2 在当时是一个巨大的飞跃但也有许多研究人员将其比喻为一只“危险的怪兽”无法与大众共享。比如他们担心 GPT-2 会被用来“传播假新闻、垃圾邮件与虚假信息”。但这份担心很快就被打消。GPT-2 没有被广泛证明有滥用的风险所以研究人员还是纷纷使用了 GPT-2。罗格斯大学的教授 Britt Paris 曾评论GPT-2 的诞生似乎不是为了造福人类反而像是 OpenAI 利用了人工智能可能会给人类社会带来的恐慌从而引起媒体的注意。他们认为GPT-2 并不像 OpenAI 声称的那样强大但是从营销的角度来看他们可以吸引媒体的关注。如果 GPT-2 没有他们宣称的那么强大那为什么要让它看起来更危险呢Alberto 认为单从这一点来看OpenAI 就已经没有遵守自己的道德标准。2020 年 6 月GPT-3 发布比 GPT-2 大了 100 倍更强大本质上也许更危险。但 OpenAI 似乎认为新系统足够安全可以与世界分享所以通过 API 发布。他们设置了一个候补名单来逐个审查访问请求但这并不能控制系统最终被用于何处。在“Language Models are Few-Shot Learners”一文中他们甚至承认如果 GPT-3 落入坏人之手可能会带来不好的后果比如“错误信息、垃圾邮件、网络钓鱼、滥用法律和政府程序、欺诈性学术论文写作和社会工程托辞”或加剧性别、种族和宗教的偏见。论文地址https://arxiv.org/pdf/2005.14165.pdf他们认识到问题的存在但仍然允许用户对系统进行试验。关于通过 API 发布OpenAI 当时的回应是“支付他们接下来的 AI 研究、安全与政策制定等工作”。一句话总结就是说“负责”保护人类免受 AI 侵害的公司决定让人们使用一个能够造成虚假信息和危险偏见的系统以便他们可以支付昂贵的维护费用。这还是“对所有人都有价值”吗所以当时社交媒体上很快就出现了关于 GPT-3 可能造成的潜在问题的激烈讨论。Facebook 人工智能研究的负责人 Jerome Pesenti 当时就写了一条推文在推文中举了一个例子谈到 GPT-3 可能会生成加剧种族与性别歧视的文本UC Berkeley 的计算机系学生 Liam Porr 还用 GPT-3 写了一篇能提高写作效率的文章与订阅者分享但没有透露其中的技巧。这篇文章在 Hacker News 上排名第一。如果 UC Berkerley 的大学生都会设法用人工智能编写的作品欺骗所有人那么一群有恶意的人会做什么呢链接https://adolos.substack.com/p/feeling-unproductive-maybe-you-should除了传播假新闻GPT-3 的另一个危害是传播人类无法区分的假新闻。这一点也被 OpenAI 在“Language Models are Few-Shot Learners”一文中认可、甚至强调了“[M]ean human accuracy at detecting the longer articles that were produced by GPT-3 175B was barely above chance at 52%. This indicates that, for news articles that are around 500 words long, GPT-3 continues to produce articles that humans find difficult to distinguish from human written news articles.”人类在检测 GPT-3 175B 生成的较长文章时的平均准确率仅略高于 52%。这表明GPT-3 能够继续生成人类难以区分的、长度约为 500 字的新闻文章。Codex and Copilot侵权了吗今年他们也做了类似的事情。几周前OpenAI、GitHub和微软联合发布了一款编程工具 Copilot这款工具基于GitHub及其他网站的源代码可根据上文提示为程序员自动编写下文代码被称为是结对编程的虚拟版本。结对编程是一种常见的敏捷软件开发技术——即两个开发人员在同一个项目上并肩协作轮流编写代码并检查合作伙伴的输出。抛开可能对开发者造成的潜在威胁不谈这款工具仅发布几天后便遭到了猛烈的抨击原因是它在未经许可的情况下使用了公共的Github存储库的开源代码。当时GitHub的首席执行官 Nat Friedman 公布这则消息后Hacker news上已经有不少网友在讨论Copilot可能会存在潜在的法律风险。链接https://news.ycombinator.com/item?id27676939比如一位网友就指出了多个疑问AI生成的代码属于我还是GitHub生成的代码属于哪个许可证如果生成的代码侵权谁来承担法律责任一位从事开源工作的开发者 Armin Ronacher 直接在 Twitter 上分享了一个示例表明 Copilot确实存在剽窃版权代码的可能。下面也有一位网友评论说“我们也发现Copilot 直接复制了一段GPL代码这说明它在商业使用上是有风险的。其实就算Copilot没有逐字复制代码也会产生一个道德问题GitHub 或者 OpenAI 等公司是否有权使用数千名开发者的开源代码对自己的系统进行训练并将这些系统的使用权卖给开发者自己一位开发者兼游戏设计师 Evelyn Woods 对此评论说“他们好像在把开源当成一个笑话”3我们还能寄希望于 OpenAI 吗OpenAI 现在真正的意图是什么Alberto 发出疑问难道他们已经与微软的利益捆绑在一起以至于忘记了最初“造福人类”的宗旨还是他们真的以为自己拥有最好的工具和人才可以独自开拓这条道路这是否意味着OpenAI出卖了自己的灵魂他们是按照自己的意愿来建设未来还是考虑到了更多人更重要的是他们是否想从中获取巨额利润OpenAI 在迈向更复杂人工智能的道路上占据了主导地位当然也有许多其他有潜力的机构在做相关的工作这些机构并没有与金钱产生直接的联系因而也受到了外界广泛的关注。就目前来看大型科技公司的目标似乎是并不是建立一个满足科学好奇心的通用人工智能也不是建立一个最安全、最负责、最道德的人工智能。他们的首要任务是赚钱当然这本身并不违法但在道德上需要警惕因为他们可能会不惜一切手段去实现目标而这个过程可能会对大多数人产生不利影响。之前 OpenAI 联合创始人埃隆·马斯克Elon Musk就曾批评其称OpenAI 应该更加开放4OpenAI 已经不再“Open”在 Reddit 上Alberto Romero 的文章也引起了网友的讨论。链接https://www.reddit.com/r/MachineLearning/comments/pizllt/d_how_openai_sold_its_soul_for_1_billion_the/网友纷纷称OpenAI 早已应该更名为“ClosedAI”。也许 OpenAI 公司仍在坚持他们最初的使命但他们也应该意识到不能为了达到目的而不择手段因为不合理的手段可能会损害更远大的目标。毫无疑问科学家们都希望实现通用人工智能。科学的好奇心是没有限度的但我们也应该对潜在的风险保持警惕就像核聚变是了不起的发明但核聚变炸弹不是。换一个角度来讲我们愿意为了实现通用人工智能而付出任何代价吗至少从道德上很多人是不愿意的。科学家们或许更应该注意到这一点。我们正在快速地更新这些深刻改变人们生活的技术。但是如果只关心自己的利益和目标无论是 OpenAI 还是其他人最后都应该对后果承担很大的责任。参考链接https://onezero.medium.com/openai-sold-its-soul-for-1-billion-cf35ff9e8cd4https://www.reddit.com/r/MachineLearning/comments/pizllt/d_how_openai_sold_its_soul_for_1_billion_the/https://blogs.microsoft.com/ai/from-conversation-to-code-microsoft-introduces-its-first-product-features-powered-by-gpt-3/https://www.theverge.com/2019/11/7/20953040/openai-text-generation-ai-gpt-2-full-model-release-1-5b-parametershttps://openai.com/blog/openai-api/未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市大脑研究计划构建互联网城市大脑技术和企业图谱为提升企业行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。 如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”