网页网站设计公司排名,想开一个外企的网站怎么超做,百度关键词搜索排名帝搜软件,东莞做网站排名优化推广简介#xff1a; 近年来#xff0c;数字经济发展迅速#xff0c;企业转型背后频频涌现「数字力量」的身影。云计算、大数据、人工智能的快速融合形成了数字经济的新基建#xff0c;也为数字经济发展带来了新的机遇。
5 月 20 日#xff0c;阿里巴巴副总裁、阿里云计算平台…简介 近年来数字经济发展迅速企业转型背后频频涌现「数字力量」的身影。云计算、大数据、人工智能的快速融合形成了数字经济的新基建也为数字经济发展带来了新的机遇。
5 月 20 日阿里巴巴副总裁、阿里云计算平台负责人贾扬清在媒体沟通会做了《科技创新时代的数字力量》演讲本文对其演讲内容做了精简编辑以飨读者。 01 科技创新时代的数字力量
我们先来认识一家建筑公司。
说建筑公司的原因是每一次工业革命往前升级、向前发展的背后最重要的其实是现有行业怎么革新自己的生产力。建筑行业是非常典型的一个例子今天说了那么多大数据和 AI到底能给他们带来什么样的价值
这家公司叫中建三局一公司是国家基建中的核心力量一直以建筑速度跟效率著称。
30 多年以前1985 年就以「三天一层楼」建造了深圳第一座超高层地标性建筑、当时「中国高楼之最」——深圳国贸大厦。
1996 年又以「九天四个结构层」的速度缔造了当时亚洲第一、世界第四高楼——深圳地王大厦将中国建筑业从一般超高层推向可与世界摩天大楼相媲美的领先水平。
放眼全国乃至世界都有他们的作品承建了非常多我们耳熟能详的标杆性建筑 国家体育馆鸟巢、央视新址 CCTV 大楼…… 除了地标性建筑他们还建了机场、地铁、高速、医院雷神山医院、学校清华美院、办公大楼阿里腾讯新浪移动等办公大楼……
中建三局一公司高效的建筑能力给我们带来非常大的价值。
几十年过去了建筑设计变得越来越新砖瓦结构变成了钢筋混凝土结构中建三局一公司对建筑行业的理解也一直在向前发展。30 多年前他们依靠人与时间的赛跑如今他们依靠数据的流动。去年中建三局一公司联手阿里云共同建设数据中台。
造一座高楼有非常多的物质在流转从一粒沙子到砖头、玻璃、钢筋、螺丝、各种工程机械怎么让它们更高效地流转起来是建筑公司都会遇到的问题。不仅如此他们还需要考虑怎样提升建造工艺、提升创新的建筑方法以及通过数字化能力来管理建筑过程、建筑物料等一系列问题。
阿里云基于一站式数据开发和综合治理平台 DataWorks 打造的数据中台为中建三局一公司建设了一个「数字孪生体」用数据和算法来预测何时补沙子、何时调配工程机械以及做其他运营管理方面的事情。
今天我们看到中国整个建筑市场有 10 万家建筑公司除了中建三局一公司这种大型的标杆企业还有很多中小型的建筑公司从业人员共有 5000 余万。帮助这些中小型企业从传统的、小作坊式的、刀耕火种的模式变成像中建三局一公司那样是阿里云希望在数据方面做的一些事情。
我们相信把阿里云数据中台建设的核心能力和各行各业的专业知识结合起来之后可以帮助更多企业就像中建三局一公司一样实现数字化转型。
02 「一体两面」助力企业用好数据
虽然每个人都在提大数据每个人也都觉得自己在用大数据但其实谁也不知道大数据到底该怎么用。
阿里云打造了一系列将数据用起来的「武器」希望通过云上数据综合治理及智能化赋予企业数字力量。
企业经常面临的挑战是建了很多零碎的数据系统表格、Word、照片、视频等异构数据存在 Excel、数据仓库等不同的数据库里最后成为「数据孤岛」。
因此企业在建设数据中台时经常会在技术、业务、组织三方面遇到挑战。技术上数据怎么打通业务上不同口径的数据如何总结组织上怎么把存放在不同地点的数据统一管理起来。
商业公司经常遇到的一个挑战是——算收入会面临财务、证监会等各种各样的不同口径运营同学需要去看不同情况的营业额这些最后都会下沉到一句 SQL 语言或者一个数据任务上。这些任务如果不一致最后就会出现数据的不一致结果的不一致口径的不一致都是一系列问题。
从技术角度来讲我们逐渐构建了一套完整的数据处理体系叫「一体两面」。 「一体」是指一体化的数据开发和数据综合治理平台 DataWorks各种各样的行业应用都基于这个平台搭建。
DataWorks 迄今为止已经累积了约 8 万名用户。每天阿里大概有 1/4 的员工在 DataWorks 上做数据开发和应用。
一体化的开发平台下有两种不同的数据组织形态——数据仓库和数据湖即所谓「两面」。
「数据仓库」的概念很早以前就有了可以将其理解为一个巨大的 Excel 表格或者一堆巨大的 Excel 表格。阿里很早以前就建了自己的数据仓库 MaxCompute它是「飞天」的重要组成部分之一已经沉淀了非常好的大规模数据仓库能力 。
在 MaxCompute 的演进过程中对数据进行实时分析的需求诞生了。比方说双 11 时促销策略要根据用户的购买行为进行及时调整。于是几年前我们开发了一套实时计算引擎 Flink。Flink 最开始是由德国一个团队做的现在阿里巴巴和德国团队一起继续把 Flink 作为一个开源的流计算实施标准往前推进。
以前我们只是对数据进行总结出报表但越来越多的数据开始需要实时的服务比方说「猜你喜欢」既需要实时化也需要对用户的历史行为做实时分析然后迅速对相关产品做服务。
前几年开始我们在「T1」计算的离线数仓基础上做了实时数仓 服务一体化的应用——交互式分析产品 Hologres它在双 11 支撑了非常多的实时决策。淘宝、天猫的决策层可以通过 Hologres 实时看到每一个商品品类在每一个地区的实时的销售额情况当发现销售额 / 触达率与预期不一致时可以及时调整策略。
随着异构数据越来越多在我们做各种服务的时候不再是表格那么精准的数据呈现形式可能是像日志log的形式这些图片、视频、语音等数据形态对传统的数据仓库来说就不是那么合适了。记得我们 2013 年在谷歌刚开始做机器学习的时候把一堆图片存在了数据仓库里结果发现所有图片都是一堆字符串看不见图片的内容。
于是「数据湖」的概念兴起了。先不着急把数据都存成 Excel 表格该是 Word 就是 Word该是图片就是图片该是视频就是视频不管数据来源和格式先把这些数据都放到一个湖里。
但业务数据有些存在湖里有些存在仓里怎么合起来统一做分析和处理去年我们提出「湖仓一体」在传统的数据湖和数据仓库上建一个数据中台。 这对于创新业务来说没什么问题。但现有非常多的企业本身已经有数据仓库了那如何把已有的资源利用起来
我们在技术侧做了很多工作。通过最底层的存储资源、计算资源的打通让大家能够更加容易地从数据仓库的角度存取数据湖里的信息或者在数据湖上构建一系列开源引擎同时分析数据湖和数据仓库里的数据。
03 AI 加持挖掘数据的价值变「成本」为「资产」
管好数据的同时我们发现数据量越来越大数据的单位价值越来越低。
因此我们开始思考怎么挖掘数据的价值帮助企业创新业务、提高效率将数据从成本变成资产。
AI 可以让数据更加智能。AI 算法不只能做数据的总结还可以做分析和决策。
但并不是所有的企业都具备将 AI 变为生产力的能力为自己所用。Gartner 的调查研究发现只有 53% 的项目能够从人工智能AI原型转化为生产。AI 要成为企业生产力就必须以工程化的技术来解决模型开发、部署、管理、预测、推理等全链路生命周期管理的问题。
我们总结发现AI 工程化领域有三大亟待推进的事情数据和算力的云原生化调度和编程范式的规模化开发和服务的标准化普惠化。
第一从供给角度看AI 工程化是数据和算力的云原生化。
智能时代是靠数据和算力来驱动的。无论是计算机视觉、自然语言处理还是其他的 AI 系统都与数据量密不可分。
上世纪九十年代手写体邮政编码已经在用 AI 识别那时用来训练 AI 模型的数据量仅有 10M 左右。阿里与清华大学不久前合作发布的超大规模中文多模态预训练模型 M6是用 2TB 图像、300GB 语料数据预训练而成的。今天在产业界训练一个 AI 模型需要的数据量通常会更大。
OpenAI 曾做过一个统计从 2012 年做出 AlexNet到 2018 年 DeepMind 做出 AlphaGo Zero对于计算量的需求增长了约 30 万倍。 根据摩尔定律每 18 个月CPU 单核的计算能力就会增长一倍。但 2008 年前后摩尔定律就开始「失效」算力的增速开始逐渐变缓。
可以看到随着数据量越来越大模型变得越来越精准、高效且复杂无论是在数据还是计算方面都需要有一个更大规模、更大体量的底座来支撑上层 AI 的需求。而云计算能够在数据和算力上提供更强的支持。
第二从核心技术的角度看AI 工程化是调度和编程范式的规模化。
因为大规模、大体量底座的背后往往面临两个成本问题
一个是资源的成本。训练一个大模型往往需要一堆 GPU 来做大规模计算。英伟达最新的 DGX-2售价大概在一台 20 万美元真的贵。OpenAI 训练模型大概需要 512 块 GPU、64 台机器。如果搭一个专门用来做大规模训练的集群可能是小一个亿的成本。这个时候如果跑去跟公司、研究院或者跟政府说我需要一个亿就是为了搭一个集群这个集群就是为了训练一个模型这个模型拿来还不知道怎么用我得先训练出来看看。这显然是很麻烦的事情。 管理大规模的集群和大规模的系统需要用到非常典型的「削峰填谷」方法考验我们是否能够把 AI 计算任务掰开、揉碎变成一小块一小块的任务部署在资源空闲的机器上。这背后是一个巨大的训练任务AI 工程师需要做非常多的工作。
我们在训练 M6 模型的时候没有买新的机器就是在现有的生产集群上面利用「潮汐效应」把计算量提出来用来训练模型。
另一个是人的成本。AI 没有 SQL 那么清晰干净的、以目标导向的框架比如写一句 SQL就能驱动 MaxCompute 等计算引擎拉一堆机器来做运算AI 也不像在线服务一样可以实现非常简单的、一台机器和几台机器的简单复制机器间不需要交互操作简单。
AI 程序要在各种各样的机器、资源之间GPU 与 GPU 间或 GPU 与 CPU 间捣腾数据要把一个算法一个数学公式放到参数服务器上告诉机器 A 何时与机器 B 说话机器 B 何时与机器 C 说话并且最好是快一点。于是AI 工程师就得写一堆无比复杂、很多人看不懂的代码。
AI 工程师都听说过数据并行、模型并行等概念这些概念下需要有一个相对简单的软件编程范式让我们更加容易把集群以及计算的需求切片把 Computer 跟 Communication 比较好地分配。但是编程范式今天还没有达到一个让彼此都很好理解的程度。因此人力成本非常高。
也就是说在大量的数据和算力基础上一个非常明显的需求是如何更好地做到资源调度和资源调配以及如何让工程师更容易撰写分布式编程范式特别是如何来规模化这是 AI 工程化的第二个体现。
我们设计了一个相对简单、干净的编程框架 Whale让开发者能够更容易地从单机的编程范式跳到分布式的编程范式。比如只需告诉 Whale将模型分为 4 个 stageWhale 就会自动把这些 stage 放到不同的机器上去做运算。
第三从需求或者出口的角度看AI 工程化是开发和服务的标准化、普惠化。
AI 做了非常多有意思的模型为了使这些模型能够更加紧密地应用在实际场景中还需要很多工作。但并不是每个人都有时间来学习 AI 如何建模如何训练和部署等。
所以我们一直在思考如何让大家更容易上手这些高大上的 AI 技术。 阿里云机器学习平台 PAI 团队基于阿里云 IaaS 产品在云上构建了一个完整的 AI 开发全生命周期的管理体系从最开始写模型到训练模型到部署模型。其中Studio 平台提供可视化建模DLC 平台Deep Learning Container提供云原生一站式的深度学习训练DSW 平台Data Science Workshop提供交互式建模 EAS 平台Elastic Algorithm Service 提供更简易、省心的模型推理服务。我们的目标是希望 AI 工程师能在几分钟之内就开始写第一行 AI 代码。 迄今为止阿里云通过大数据、AI 平台已经服务了各行各业的客户宝钢、三一集团、四川农信、太平洋保险、小红书、VIPKID、斗鱼、亲宝宝等。我们希望通过我们的大数据和 AI 能力给企业提供升级的动力。
原文链接
本文为阿里云原创内容未经允许不得转载。