wordpress 子目录,自己建网站怎么做seo,网站开发流程博客,广州网页定制多少钱简介#xff1a; 本篇将重点介绍Hologres在阿里巴巴网络监控部门成功替换Druid的最佳实践#xff0c;并助力双11实时网络监控大盘毫秒级响应。
概要#xff1a;刚刚结束的2020天猫双11中#xff0c;MaxCompute交互式分析#xff08;下称Hologres#xff09;实时计算Flin…简介 本篇将重点介绍Hologres在阿里巴巴网络监控部门成功替换Druid的最佳实践并助力双11实时网络监控大盘毫秒级响应。
概要刚刚结束的2020天猫双11中MaxCompute交互式分析下称Hologres实时计算Flink搭建的云原生实时数仓首次在核心数据场景落地为大数据平台创下一项新纪录。借此之际我们将陆续推出云原生实时数仓双11实战系列内容本篇将重点介绍Hologres在阿里巴巴网络监控部门成功替换Druid的最佳实践并助力双11实时网络监控大盘毫秒级响应。
3... 2... 1... 00:00:00 。购物车结算提交订单付款 00:01:00...。滴您的支付宝消费xxx万元。 亿万人同时参与的千亿级项目破记录的峰值58万笔/秒剁手党们在整个交易过程中如丝般顺滑好像参加了一个假的双11而这一切的背后都离不开阿里巴巴网络能力的强大支持。随着技术的发展尤其是近年来云和电商业务的愈发兴盛基础网络也变得越来越庞大和复杂如何保障这张膨胀网络的稳定性提供云上用户畅通无阻的购物体验对网络系统建设者和运维者说更是极大的考验。 理论上来说故障不可避免但是如果能够做到快速发现定位修复甚至预防故障缩短故障时长即可让用户轻微或无感是稳定性追求的终极目标。2015年的微软提出了pingmesh成为业界事实的解决方案但是由于天生的某些缺陷性导致故障发现时间过长。阿里巴巴网络研发事业部从2017年就开始研发站在世界前沿的探测系统AliPingAliPing实时系统的出现将阿里故障发现带入了秒级响应数据采集到处理到大盘呈现最快时间延迟在数秒之间告警故障定位分钟级7*24全天候监控着整个阿里的网络状况。AliPling的核心架构图如下
在整个系统中监控大盘作为故障发现的核心元素承担着实时呈现网络状况的重任每一条曲线的起起伏伏就有可能代表用户的业务在受损 如何快速实时展示网络状态并预警/发现网络故障帮助用户迅速止血这对于监控团队的监控大盘也是重大的考验。对于监控人员使用的监控大盘来说困难有多个 1数据时效性要求高需要实时的将处理完的结构化数据告警监控7*24小时的呈现在使用者GOC, 各个或者监控人员面前以便及时地发现处理全阿里蚂蚁的网络故障。 2数据源复杂网络数据源众多业务场景众多有一分钟数百G的流量监控数据也有一分钟几十K的IDC网络数据如何将这些不同种类不同数据量的业务数据纳入监控体系发现异常对整体端到端监控大盘来说也是一种考验。 3数据指标维度多对于监控人员来说需要监控的数据指标维度特别多可以看作是一个复杂的OLAP查询系统如何根据自身业务场景从大盘中实时查询所需的业务数据这对于处理后端数据的OLAP框架也是一个重大挑战。
技术选型
对于监控大盘来说用户的组合查询条件具有不可预知性其结构化数据没有办法提前算好只通过OLAP(联机分析处理)技术实时对基础数据分析组合并将结果呈现给用户。Aliping大盘实际就是OLAP技术体现将不同维度的故障数据机房、区域、DSW、ASW、PSW、部门、应用等等通过大盘形式展现在用户面前。
2017年在AliPing系统实施的时候我们对比了多项OLAP数据库 其中选择比较有代表性的进行了对比 1HIVE 底层基于HDFS存储将SQL语句分解为MapReduce任务进行查询。其优点是学习成本低可以通过类SQL语句快速实现简单的MapReduce统计不必开发专门的MapReduce应用十分适合数据仓库的统计分析。但是由于底层是HDFS分布式文件系统的限制性不能进行常见的CUD(对表记录操作)操作同时Hive需要从已有的数据库或日志进行同步最终入到HDFS文件系统中当前要做到增量实时同步都相当困难。最重要的是查询速度慢无法满足监控大盘秒级相应需求。 2Kylin 传统OLAP根据数据存储方式的不同分为ROLAPrelational olap以及MOLAPmulti-dimension olap。ROLAP 以关系模型的方式存储用作多为分析用的数据优点在于存储体积小查询方式灵活然而缺点也显而易见每次查询都需要对数据进行聚合计算为了改善短板ROLAP使用了列存、并行查询、查询优化、位图索引等技术。Kylin中数据立方的思想就是以空间换时间通过定义一系列的纬度对每个纬度的组合进行预先计算并存储。有N个纬度就会有2的N次种组合。所以最好控制好纬度的数量因为存储量会随着纬度的增加爆炸式的增长产生灾难性后果。这个对于庞大的网络数据和不可确定性维度组合是不可以接受的。
3ClickHouse 这个是由俄罗斯yandex公司开发的专门为在线数据分析而设计。根据官方提供的文档来看ClickHouse 日处理记录数十亿级没测过。其机制采用列式存储数据压缩支持分片支持索引并且会将一个计算任务拆分分布在不同分片上并行执行计算完成后会将结果汇总支持SQL和联表查询但是支持不够好支持实时更新自动多副本同步。总体来说ClickHouse还算不错但是由于不够成熟官方支持度不够bug也多多最重要的是集团内也没看到人用只能放弃。
4Druid 是一种能对历史和实时数据提供亚秒级别的查询的数据存储系统。Druid 支持低延时的数据摄取灵活的数据探索分析高性能的数据聚合简便的水平扩展。适用于数据量大可扩展能力要求高的分析型查询系统。其机制将热点和实时数据存储在实时节点Realtime Node内存中将历史数据存储在历史节点history node的硬盘中实时伪实时的结构保证查询基本都在毫秒级。高速摄入快速查询正是满足了我们的需求同时还有通用计算引擎团队的有力支持在早期我们选择了druid作为了我们监控大盘的OLAP支持系统。
新OLAP网络监控系统
随着业务的复杂化业务进一步增多Druid使用过程中也暴露出一系列问题 1数据量摄入的瓶颈 集团上云流量的引入使我们数据量激增数据写入出现了数次大故障 2由于业务复杂多变我们需要增加维度数据Druid增加相对来说过程比较复杂 3Druid的查询方式不友好有一套自己的查询语言对于SQL支持太差浪费大量时间学习 4不支持高并发对于大促来说简直是灾难。有两年双十一我们只能上线踢用户保证监控大盘可用。
随着暴露出的问题越来越多我们也在寻找一款既能替代Druid解决当前问题又能满足实时OLAP多维分析场景需求的产品。 也是在集团内其他部门沉淀的最佳实践中知道Hologres并且了解到Hologres支持行存模式下的高并发点查和列存模式下的实时OLAP多维分析觉得这一点很贴合我们网络监控系统的要求于是就抱着试试的心态先去测试体验Hologres。通过全链路的测试和大量的场景数据验证能满足我们场景需求于是就决定上线Hologres至正式生产中。
改造后的新OLAP监控系统如下图所示整体的数据流程大致如下
Kafka实时采集网络相关的监控指标数据并写入Flink中轻度汇总加工Flink将初步加工完成的基础粒度的实时数据实时写入Hologres中由Hologres提供统一的存储Hologres直接实时对接监控大屏大屏实时展示多种监控指标的变化情况不符合预期的数据实时报警相应的业务人员立即排查问题并解决。
业务价值
今年也是Hologres第一年参与AIS网络故障监控的双11作战作为新秀交出了令我们比较满意的答卷。整体来说对于业务的价值主要表现如下
1TB级数据毫秒级响应 对于实时监控来说时间就是生命线越快发现故障就能越快止血如何根据用户输入的复杂组合条件在TB级数据中仅仅以秒级甚至是毫秒级的响应筛选出符合要求的数据OLAP这对很多系统来说都是很大的挑战而实战证明合理的利用Hologres索引功能并通过资源的合理分配等在OLAP实时性上完美的满足了监控业务的需要。
2支持高并发 双11的监控大屏往往需要查询查询历史数据并根据历史数据做报警预测以往的系统最多只能支撑不到数十用户的查询数10天数据而Hologres能支撑数百用户的大规模并行查询并且依旧没有达到上限在今年双11的0点时面对数百倍的平时数据量冲击监控曲线依旧平滑如旧毫无滞涩之感。
3写入性能高 对于之前数十万/秒数百万/秒的写入能力Druid的表现不是很好容易出现涌塞现象而Hologres可以轻松做到这也就轻松解决了我们的实时写入瓶颈问题。
4学习成本低 Hologres兼容Postgres全SQL支持非常方便新用户上手无需再花费时间和精力去研究语法。同时Hologres对于BI工具的兼容性很好无需做改造就能对接监控大屏节约大量时间。
对每一个天猫双11剁手人来说每一次的丝滑般购物体验都离不开阿里网络能力的支撑而监控大盘就是阿里网络状况的眼睛。Hologres作为大盘的核心环节给大盘持续赋能。但是作为一个新生儿HOLO仍然有一些不太成熟的地方在透明升级、稳定性等环节上依存在提升空间。我们也愿意同Hologres一起成长期待明年双11 Hologres更优秀的表现。
作者简介唐傥隶属网络研发事业部网络现从事网络稳定性开发研究工作前北邮研究生导师拥有数个网络和算法相关专利。 原文链接 本文为阿里云原创内容未经允许不得转载。