网站首页倒计时功能怎么做,建设银行网站用户名是多少,wordpress大前端plus,网站建设技术李京文简介#xff1a; 本篇内容为2021云栖大会-云原生数据仓库AnalyticDB技术与实践峰会分论坛中#xff0c;阿里云资深技术专家 魏闯先关于“AnalyticDB PostgreSQL年度新版本发布”的分享。 本篇内容将通过三个部分来介绍AnalyticDB PG年度新版本发布。
一、AnalyticDB PG云原生…简介 本篇内容为2021云栖大会-云原生数据仓库AnalyticDB技术与实践峰会分论坛中阿里云资深技术专家 魏闯先关于“AnalyticDB PostgreSQL年度新版本发布”的分享。 本篇内容将通过三个部分来介绍AnalyticDB PG年度新版本发布。
一、AnalyticDB PG云原生架构
二、云原生架构核心技术剖析
三、演进路标 一、AnalyticDB PG云原生架构
阿里云自研高性能、海量扩展数据仓库服务、兼容部分Oracle/Teradata语法生态大量应用于阿里巴巴集团内部电商物流文娱广告等业务部门服务于阿里云的金融、政企、互联网等各行业用户支持快速构建新一代云化数据仓库服务。 它具有以下四个特点第一PB级数据秒级响应。采用向量化计算以及列存储和智能索引领先传统数据库引擎性能3x倍。新一代SQL优化器实现复杂分析语句免调优。第二稳定可靠简化运维。飞天平台基于阿里多年大规模集群系统构筑经验打造智能硬件管理故障监控诊断自恢复支持MPP数据库实现复杂集群系统高可靠自运维。第三高SQL兼容性。支持SQL 2003部分兼容0racle语法支持PL/SQL存储过程 OLAP窗口函数视图等具有完备功能和生态可实现应用快速适配和迁移。第四数据多模分析。通过PostGIS插件支持地理信息数据分析内置100机器学习算法库实现数据智能探索。支持高维向量检索算法实现视频/图像检索以图搜图功能。 我们为什么要升级云原生架构从80年代开始数据库逐步由单机向云原生架构逐步演进。80年代数据库采用存储计算耦合的单点数据库服务架构。90年代开始通过共享存储的能力做到了一份存储多份计算。随着计算节点线性增加它的存储逐渐成为瓶颈。到2000年以后随着大数据的发展数据水平切成多个分片每一个节点负责一个分片数据的计算和存储。2010年开始随着云计算的迅速发展数据库开始向云原生方向演变。 对于数据仓库的业务来说它天生适合存算分离架构并支持弹性伸缩。第一数据量本身存在波峰波谷数据量在某些天出现激增数仓需要做到快速扩容。第二实时分析。我们需要数据做到实时反馈刚刚产生的数据能够立刻分析。第三数据仓库既要提供历史数据分析又要提供实时分析这就要求数仓必须具有好的资源隔离能力。第四现在的部门数据越来越复杂跨部门之间需要数据共享。我们的数据仓库需要做到一份存储多部门共享减少部门之间数据扭转带来的业务复杂。 二、云原生架构核心技术剖析
我们的当前ADB是两层结构上层是master节点底层的是计算节点通过云盘的弹性能力去解决存储弹性的问题。这种架构的主要痛点问题是计算节点有状态一旦有状态在扩容等过程中就会面临着数据搬迁慢的问题所以我们在新的云原生架构把计算节点从有状态变成无状态或者弱状态。状态包括真实数据和元数据两个层面真实数据放在共享存储中元数据放在分布式KV中存储和计算完全解耦做到无状态这样就可以快速地实现秒级的弹性能力。在开发测试过程中发现了很多性能问题。第一个问题是原来的云盘或者是本地盘换成了共享存储后共享存储响应性能比本地盘差一个数量级或两个数量级我们采用分布式的多层缓存来解决共享存储的性能问题。第二个共享存储具有非常好的吞吐能力但需要存储引擎适应这个特性因此我们设计了行列缓存的架构并做了大量的面向高吞吐的性能优化。 对普通客户来说最重要的事情就是做到成本的降低。由于采用的共享存储的价格比原先使用本地盘或云盘的成本有一个数量级的下降所以整个原生版本在成本上会有个大幅下降。 云原生架构有四个特色第一个特色是弹性可以实现计算和存储独立的伸缩。第二个是实时保留实时能力支持高并发的实时写入。第三个是高吞吐具有好的多维分析性能并可线性扩展。第四个是数据共享可以实现数据跨实例的实时共享。 首先我们介绍一下扩容的过程。假设开始只有两个计算节点数据有八个分片。扩容前每个计算节点负责四个分片数据映射关系保存在元数据库中所有的数据都放在共享存储上面。扩容过程就是将映射关系从原来的一个节点对四个分片改成一个节点对两个分片扩容过程无需数据迁移只需要修改元数据整个过程可以做到秒级弹性。 高吞吐实时写入是实时数仓的一个重要特性。主要通过以下三种方式一、Batch和并行化提高吞吐。二、本地行存表实现事务ACID。三、分布式缓存加速。 另一个重要技术点是离在线一体行列混存。我们设计一个面向吞吐的行列混存的存储引擎充分发挥共享存储高吞吐的特色。行列混存利用数据的有序性支持计算下推得到了10倍以上的性能提升。同时针对多维分析任意列查询的场景设计了多维排序功能可以保证多个维度的任意查询都能达到毫秒级的响应。 ADBPG原先采用火山计算模型在云原生版本中将火山模型升级为向量化模型。向量化引擎的本质是将原来的一条条计算改成批计算每批数据采用列式向量化计算。相对于火山模型向量化引擎具有CPU Cache命中率高、流水线并行、低函数调用开销、减少内存碎片等优势。测试结果显示向量化计算引擎相对原来的火山模型有三倍以上的性能提升。 计算存储分离架构的第一个演进特性是数据共享。元数据可分成系统表和可见性表存储在KV系统中。被共享的实例将元数据同步到KV系统中共享实例实时查KV系统拿到最新表的元数据和可见性信息再根据元数据访问共享存储中的数据从而实现数据的实时共享。 下一个演进特性是细粒度弹性。通过前面介绍的计算存储分离架构已经实现了计算节点的无状态化。下一步的工作就是把节点再细拆为存储服务化节点和计算节点。存储服务化节点主要负责数据实时写入和缓存计算节点实现完全无状态从而实现极致弹性能力。 三、演进路标
未来一年的演进路径。10月份云原生架构升级支持极速扩缩容。12月份上线跨实例数据共享功能并支持分时弹性功能。明年6月份上线存储服务化和计算无状态。22年10月份支持算子级弹性和自动挂起/启动功能。
原文链接 本文为阿里云原创内容未经允许不得转载。