网站里的聊天怎么做,网站内部链接优化,第一网站ppt模板免费下载,建德网站建设公司做互联网应用很重要的一点是要保证服务可用性#xff0c;特别是某些业务更是需要7*24小时不间断的对外提供服务#xff0c;任何停机、宕机都会引起大面积的用户不满。持续可用性是把业务服务化时一个需要考虑的重要指标#xff0c;很多时候我们都会牺牲一些功能来换取可用性… 做互联网应用很重要的一点是要保证服务可用性特别是某些业务更是需要7*24小时不间断的对外提供服务任何停机、宕机都会引起大面积的用户不满。持续可用性是把业务服务化时一个需要考虑的重要指标很多时候我们都会牺牲一些功能来换取可用性。如何保证服务的持续可用性是每个互联网架构师一直坚持不懈追求的目标。在不同行业、不同场景下都有不同的解决方案。今天就与大家聊聊特来电在物联网模式下的多活数据中心架构上的认识和实践。 特来电是全球首家提出了将车联网、充电网、互联网三网融合的充电桩生态公司拥有近18万个充电桩覆盖了全国240多个城市服务客户不仅有ToC端、ToB端还有很多的社会运营车辆。在如此复杂的客户群面前充电网每时每刻都有大量的充电用户无论在静寂无声的夜晚还是在节假日充电永不停歇。用户入眠的时候是我们充电网络最繁忙的时刻可以说特来电的充电网必须要有99.9%甚至更高的可用性才能满足业务的需要。特来电的充电网与其他厂商的充电桩还不一样其完全构建在物联网之上的。每个充电终端都是智能的都在时时刻刻与云平台保持着通讯下面是业务全景图。 像其他互联网公司一样我们做多活也是迫不得已的事情
所有业务放到一个篮子里面当出现严重故障时整个充电云服务将完全宕机无法满足SLA99.9%甚至更高的要求。云平台架构完全是分布式的部署结构复杂各产品功能不支持灰度发布产品新功能上限频繁产品中隐藏很深的bug很容易引起大面积的云服务故障。因为架构和一些技术实现一个数据中心服务负载总会有上限在特定的一些条件下增加虚拟数量也无法提升系统的服务水平比如TCP连接数是有上限的 基于以上考虑以及填过无数坑的教训我们决定必须要建立多活数据中心。既然要建多数据中心那就要看看业界的一些主流做法和技术趋势。在众多的解决方案中我们找到了两篇非常富有代表性的文章微信高并发资金交易系统设计方案——百亿红包背后的技术支撑、首席架构师揭秘蚂蚁金服互联网IT运维体系实践。 微信红包的主要思路是
系统垂直SET化分而治之。各个SET之间相互独立互相解耦。并且同一个红包ID的所有请求包括发红包、抢红包、拆红包、查详情详情等垂直stick到同一个SET内处理高度内聚。通过这样的方式系统将所有红包请求这个巨大的洪流分散为多股小流互不影响分而治之。逻辑Server层将请求排队解决DB并发问题。使拆红包的事务操作串行地进入DB只需要将请求在Server层以FIFO先进先出的方式排队就可以达到这个效果。从而问题就集中到Server的FIFO队列设计上。双维度库表设计保障系统性能稳定。当单表数据量达到一定程度时DB性能会有大幅度下降影响系统性能稳定性。采用冷热分离将历史冷数据与当前热数据分开存储。系统在以红包ID维度分库表的基础上增加了以循环天分表的维度形成了双维度分库表的特色 蚂蚁金服的主要思路是 蚂蚁金服提出了“LDC”架构其核心思想是把数据水平拆分的思路向上提升到接入层、终端层从接入层开始把原来部署在一个IDC中的系统集群进一步分成多个更细粒度的部署单元。
每个单元对外是封闭的在一个单元内的系统调用链路和各类存储访问是局部化在本单元内的每个单元的实时数据是独立不共享的会员或配置类信息等对延时性要求不高的数据全局共享单元间的通信统一管控尽量以异步化消息进行通信同步调用则通过单元间代理方案实现。 通过两家互联网巨头公司的方案可以看出一个共同的特点就是期望通过分流的模式把大流量切成小流量从接入层开始把原来部署在一个IDC中的系统集群进一步分成多个更细粒度的部署单元 应对流量压力。这种架构下不仅仅解决了流量天花板问题而且在系统整体可用性上有了一个质的变化。即使系统不可用也是少部分服务单元出问题不会影响全国业务。这不正是我们梦寐以求的东西吗 基于此我们规划设计了特来电云平台的多活系统架构。总体思路是分为三步走 第一步中间件、技术平台要进行适应性改造以支持多数据中心、多Set化的架构。不管后续部署结构如何变化技术平台和组件都要可适应。下面是技术平台和中间件的架构图图中的五个平台都需要改造。 第二步架设两个数据中心每个数据中心部署一个服务单元两个数据中心进行引流验证总体架构和设想实现双活架构。核心思路
上海、北京异地两数据中心双活部分充电桩分流到上海数据中心。用户充电时根据集控所在数据中心下达充电指令。非充电业务默认访问主数据中心当北京数据中心或上海数据中心宕机时通过流量管理器自动切换到另一个数据中心。提升系统可用性。 第三步架设多个数据中心、多个服务单元按照地区对流量进行切割真正实施多活架构。核心思路
建立多活数据中心每个数据中心多个服务单元。充电桩在接入云服务时根据所在地区自动引流到对应的服务单元。用户充电时根据登录地区由流量管理器映射到对应的服务单元 通过近半年的努力我们不仅完成了第一步的工作而且还完成了第二步规划。在2017-6-27日上海数据中心正式激活并引流成功。至此我们终于在多活架构上迈出了最坚实的一步。这标志着我们不仅仅具备了完善了技术架构而且这个架构是可以复制的、多活的终于有可能把整个系统可用性做到100%。 架构的变迁会随着业务的变化而变化不同阶段有不同的需求。规划了这些、做了这些也是只万里长征的第一步。2020年后才会真正迎来新能源汽车爆发式发展届时会有50%以上的电动汽车在我们的平台下充电每天都有可能数千万度电甚至数亿电在特来电的充电网上发生。架构的升级将会继续会越来越快也会越来越复杂但是我们乐在其中期望志同道合的战友一起战斗
原文地址http://www.cnblogs.com/vveiliang/p/7156847.html .NET社区新闻深度好文微信中搜索dotNET跨平台或扫描二维码关注