简述网站开发的基本原则,购物网站建设存在的问题,石家庄做网站那家好,成都企业网站备案流程本文转自华为官网2019年6月#xff0c;华为发布全新8系列手机SoC芯片麒麟810#xff0c;首次采用华为自研达芬奇架构NPU#xff0c;实现业界领先端侧AI算力#xff0c;在业界公认的苏黎世联邦理工学院推出的AI Benchmark榜单中#xff0c;搭载麒麟810的手机霸榜TOP3#… 本文转自华为官网2019年6月华为发布全新8系列手机SoC芯片麒麟810首次采用华为自研达芬奇架构NPU实现业界领先端侧AI算力在业界公认的苏黎世联邦理工学院推出的AI Benchmark榜单中搭载麒麟810的手机霸榜TOP3堪称华为AI芯片的“秘密武器”这其中华为自研的达芬奇架构举足轻重。2019年8月20日数据那么达芬奇架构AI实力究竟怎么样一起来深入了解下~源起为什么要做达芬奇架构华为预测到2025年全球的智能终端数量将会达到400亿台智能助理的普及率将达到90%企业数据的使用率将达到86%。可以预见在不久的将来AI将作为一项通用技术极大地提高生产力改变每个组织和每个行业。基于这样的愿景华为在2018全联接大会上提出全栈全场景AI战略。作为重要的技术基础AI芯片在其中发挥着重要作用而华为也基于AI芯片提供了完整的解决方案加速使能AI产业化。为了实现AI在多平台多场景之间的协同华为创新设计达芬奇计算架构在不同体积和功耗条件下提供强劲的AI算力。初见达芬奇架构的核心优势达芬奇架构是华为自研的面向AI计算特征的全新计算架构具备高算力、高能效、灵活可裁剪的特性是实现万物智能的重要基础。具体来说达芬奇架构采用3D Cube针对矩阵运算做加速大幅提升单位功耗下的AI算力每个AI Core可以在一个时钟周期内实现4096个MAC操作相比传统的CPU和GPU实现数量级的提升。3D Cube同时为了提升AI计算的完备性和不同场景的计算效率达芬奇架构还集成了向量、标量、硬件加速器等多种计算单元。同时支持多种精度计算支撑训练和推理两种场景的数据精度要求实现AI的全场景需求覆盖。深耕达芬奇架构的AI硬实力01常见的AI运算类型有哪些在了解达芬奇架构的技术之前我们先来弄清楚一下几种AI运算数据对象标量Scalar由单独一个数组成。向量Vector由一组一维有序数组成每个数由一个索引index标识。矩阵Matrix由一组二维有序数组成每个数由两个索引index标识。张量Tensor由一组n维有序数组成每个数由n个索引index标识。其中AI计算的核心是矩阵乘法运算计算时由左矩阵的一行和右矩阵的一列相乘每个元素相乘之后的和输出到结果矩阵。在此计算过程中标量Scalar、向量Vector、矩阵Matrix算力密度依次增加对硬件的AI运算能力不断提出更高要求。典型的神经网络模型计算量都非常大这其中99%的计算都需要用到矩阵乘也就是说如果提高矩阵乘的运算效率就能最大程度上提升AI算力——这也是达芬奇架构设计的核心以最小的计算代价增加矩阵乘的算力实现更高的AI能效。02各单元角色分工揭秘Da Vinci Core如何实现高效AI计算在2018年全联接大会上华为推出AI芯片Ascend 310昇腾310这是达芬奇架构的首次亮相。其中Da Vinci Core只是NPU的一个部分Da Vinci Core内部还细分成很多单元包括核心的3D Cube、Vector向量计算单元、Scalar标量计算单元等它们各自负责不同的运算任务实现并行化计算模型共同保障AI计算的高效处理。3D Cube矩阵乘法单元算力担当刚才已经提到矩阵乘是AI计算的核心这部分运算由3D Cube完成Buffer L0A、L0B、L0C则用于存储输入矩阵和输出矩阵数据负责向Cube计算单元输送数据和存放计算结果。Vector向量计算单元灵活的多面手虽然Cube的算力很强大但只能完成矩阵乘运算还有很多计算类型要依靠Vector向量计算单元来完成。Vector的指令相对来说非常丰富可以覆盖各种基本的计算类型和许多定制的计算类型。Scalar标量计算单元流程控制的管家Scalar标量运算单元主要负责AI Core的标量运算功能上可以看作一个小CPU完成整个程序的循环控制分支判断Cube、Vector等指令的地址和参数计算以及基本的算术运算等。033D Cube计算方式的独特优势不同于以往的标量、矢量运算模式华为达芬奇架构以高性能3D Cube计算引擎为基础针对矩阵运算进行加速大幅提高单位面积下的AI算力充分激发端侧AI的运算潜能。以两个N*N的矩阵A*B乘法为例如果是N个1D 的MAC需要N^2即N的2次方的cycle数如果是1个N^2的2D MAC阵列需要N个Cycle如果是1个N维3D的Cube只需要1个Cycle。图中计算单元的数量只是示意实际可灵活设计华为创新设计的达芬奇架构将大幅提升算力16*16*16的3D Cube能够显著提升数据利用率缩短运算周期实现更快更强的AI运算。这是什么意思呢举例来说同样是完成4096次运算2D结构需要64行*64列才能计算3D Cube只需要16*16*16的结构就能算出。其中64*64结构带来的问题是运算周期长、时延高、利用率低。达芬奇架构的这一特性也完美体现在麒麟810上。作为首款采用达芬奇架构NPU的手机SoC芯片麒麟810实现强劲的AI算力在单位面积上实现最佳能效FP16精度和INT8量化精度业界领先搭载这款SoC芯片的华为Nova 5、Nova 5i Pro及荣耀9X手机已上市为广大消费者提供多种精彩的AI应用体验。同时麒麟810再度赋能HiAI生态支持自研中间算子格式IR开放算子数量多达240处于业内领先水平。更多算子、开源框架的支持以及提供更加完备的工具链将助力开发者快速转换集成基于不同AI框架开发出的模型极大地增强了华为HiAI移动计算平台的兼容性、易用性提高开发者的效率节约时间成本加速更多AI应用的落地。预见达芬奇架构解锁AI无限可能基于灵活可扩展的特性达芬奇架构能够满足端侧、边缘侧及云端的应用场景可用于小到几十毫瓦大到几百瓦的训练场景横跨全场景提供最优算力。以Ascend芯片为例Ascend-Nano可以用于耳机电话等IoT设备的使用场景Ascend-Tiny和Ascend-Lite用于智能手机的AI运算处理在笔记本电脑等算力需求更高的便携设备上由Ascend-Mini提供算力支持而边缘侧服务器上则需要由Multi-Ascend 310完成AI计算至于超复杂的云端数据运算处理则交由算力最高可达256 TFLOPSFP16的Ascend-Max来完成。正是由于达芬奇架构灵活可裁剪、高能效的特性才能实现对上述多种复杂场景的AI运算处理。同时选择开发统一架构也是一个非常关键的决策。统一架构优势很明显那就是对广大开发者非常利好。基于达芬奇架构的统一性开发者在面对云端、边缘侧、端侧等全场景应用开发时只需要进行一次算子开发和调试就可以应用于不同平台大幅降低了迁移成本。不仅开发平台语言统一训练和推理框架也是统一的开发者可以将大量训练模型放在本地和云端服务器再将轻量级的推理工作放在移动端设备上获得一致的开发体验。在算力和技术得到突破性提升后AI将广泛应用于智慧城市、自动驾驶、智慧新零售、机器人、工业制造、云计算AI服务等场景。华为轮值董事长徐直军在2018华为全联接大会上表示“全场景意味着可以实现智能无所不及全栈意味着华为有能力为AI应用开发者提供强大的算力和应用开发平台有能力提供大家用得起、用得好、用得放心的AI实现普惠AI”。未来AI将应用更加广泛的领域并逐渐覆盖至生活的方方面面。达芬奇架构作为AI运算的重要技术基础将持续赋能AI应用探索为各行各业的AI应用场景提供澎湃算力。8月23日采用达芬奇架构的又一款“巨无霸”——AI芯片Ascend 910正式商用发布与之配套的新一代AI开源计算框架MindSpore也同时亮相。张亚勤、刘慈欣、周鸿祎、王飞跃、约翰.翰兹联合推荐这是一部力图破解21世纪前沿科技大爆发背后的规律与秘密深度解读数十亿群体智能与数百亿机器智能如何经过50年形成互联网大脑模型详细阐述互联网大脑为代表的超级智能如何深刻影响人类社会、产业与科技未来的最新著作。《崛起的超级智能;互联网大脑如何影响科技未来》2019年7月中信出版社出版。刘锋著。了解详情请点击【新书】崛起的超级智能互联网大脑如何影响科技未来未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能互联网和脑科学交叉研究机构。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。 如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文