电商网站开发毕业设计,深圳哪个招聘网站好,网站设计论文题目参考,学网站建设可以从事什么工作ZooKeeper是一个高可用的分布式数据管理与系统协调框架。基于对Paxos算法的实现#xff0c;使该框架保证了分布式环境中数据的强一致性#xff0c;也正是基于这样的特性#xff0c;使得ZooKeeper解决很多分布式问题。网上对ZK的应用场景也有不少介绍#xff0c;本文将结合作…ZooKeeper是一个高可用的分布式数据管理与系统协调框架。基于对Paxos算法的实现使该框架保证了分布式环境中数据的强一致性也正是基于这样的特性使得ZooKeeper解决很多分布式问题。网上对ZK的应用场景也有不少介绍本文将结合作者身边的项目例子系统地对ZK的应用场景进行一个分门归类的介绍。 值得注意的是ZK并非天生就是为这些应用场景设计的都是后来众多开发者根据其框架的特性利用其提供的一系列API接口或者称为原语集摸索出来的典型使用方法。因此也非常欢迎读者分享你在ZK使用上的奇技淫巧。 ZooKeeper典型应用场景一览 数据发布与订阅配置中心 发布与订阅模型即所谓的配置中心顾名思义就是发布者将数据发布到ZK节点上供订阅者动态获取数据实现配置信息的集中式管理和动态更新。例如全局的配置信息服务式服务框架的服务地址列表等就非常适合使用。 应用中用到的一些配置信息放到ZK上进行集中管理。这类场景通常是这样应用在启动的时候会主动来获取一次配置同时在节点上注册一个Watcher这样一来以后每次配置有更新的时候都会实时通知到订阅的客户端从来达到获取最新配置信息的目的。分布式搜索服务中索引的元信息和服务器集群机器的节点状态存放在ZK的一些指定节点供各个客户端订阅使用。分布式日志收集系统。这个系统的核心工作是收集分布在不同机器的日志。收集器通常是按照应用来分配收集任务单元因此需要在ZK上创建一个以应用名作为path的节点P并将这个应用的所有机器ip以子节点的形式注册到节点P上这样一来就能够实现机器变动的时候能够实时通知到收集器调整任务分配。系统中有些信息需要动态获取并且还会存在人工手动去修改这个信息的发问。通常是暴露出接口例如JMX接口来获取一些运行时的信息。引入ZK之后就不用自己实现一套方案了只要将这些信息存放到指定的ZK节点上即可。注意在上面提到的应用场景中有个默认前提是数据量很小但是数据更新可能会比较快的场景。 负载均衡 这里说的负载均衡是指软负载均衡。在分布式环境中为了保证高可用性通常同一个应用或同一个服务的提供方都会部署多份达到对等服务。而消费者就须要在这些对等的服务器中选择一个来执行相关的业务逻辑其中比较典型的是消息中间件中的生产者消费者负载均衡。 消息中间件中发布者和订阅者的负载均衡linkedin开源的KafkaMQ和阿里开源的metaq都是通过zookeeper来做到生产者、消费者的负载均衡。这里以metaq为例如讲下生产者负载均衡metaq发送消息的时候生产者在发送消息的时候必须选择一台broker上的一个分区来发送消息因此metaq在运行过程中会把所有broker和对应的分区信息全部注册到ZK指定节点上默认的策略是一个依次轮询的过程生产者在通过ZK获取分区列表之后会按照brokerId和partition的顺序排列组织成一个有序的分区列表发送的时候按照从头到尾循环往复的方式选择一个分区来发送消息。 消费负载均衡 在消费过程中一个消费者会消费一个或多个分区中的消息但是一个分区只会由一个消费者来消费。MetaQ的消费策略是 每个分区针对同一个group只挂载一个消费者。如果同一个group的消费者数目大于分区数目则多出来的消费者将不参与消费。如果同一个group的消费者数目小于分区数目则有部分消费者需要额外承担消费任务。在某个消费者故障或者重启等情况下其他消费者会感知到这一变化通过 zookeeper watch消费者列表然后重新进行负载均衡保证所有的分区都有消费者进行消费。 命名服务(Naming Service) 命名服务也是分布式系统中比较常见的一类场景。在分布式系统中通过使用命名服务客户端应用能够根据指定名字来获取资源或服务的地址提供者等信息。被命名的实体通常可以是集群中的机器提供的服务地址远程对象等等——这些我们都可以统称他们为名字Name。其中较为常见的就是一些分布式服务框架中的服务地址列表。通过调用ZK提供的创建节点的 API能够很容易创建一个全局唯一的path这个path就可以作为一个名称。 阿里巴巴集团开源的分布式服务框架Dubbo中使用ZooKeeper来作为其命名服务维护全局的服务地址列表点击这里查看Dubbo开源项目。在Dubbo实现中 服务提供者在启动的时候向ZK上的指定节点/dubbo/${serviceName}/providers目录下写入自己的URL地址这个操作就完成了服务的发布。 服务消费者启动的时候订阅/dubbo/${serviceName}/providers目录下的提供者URL地址 并向/dubbo/${serviceName} /consumers目录下写入自己的URL地址。 注意所有向ZK上注册的地址都是临时节点这样就能够保证服务提供者和消费者能够自动感应资源的变化。 另外Dubbo还有针对服务粒度的监控方法是订阅/dubbo/${serviceName}目录下所有提供者和消费者的信息。 分布式通知/协调 ZooKeeper中特有watcher注册与异步通知机制能够很好的实现分布式环境下不同系统之间的通知与协调实现对数据变更的实时处理。使用方法通常是不同系统都对ZK上同一个znode进行注册监听znode的变化包括znode本身内容及子节点的其中一个系统update了znode那么另一个系统能够收到通知并作出相应处理 另一种心跳检测机制检测系统和被检测系统之间并不直接关联起来而是通过zk上某个节点关联大大减少系统耦合。另一种系统调度模式某系统有控制台和推送系统两部分组成控制台的职责是控制推送系统进行相应的推送工作。管理人员在控制台作的一些操作实际上是修改了ZK上某些节点的状态而ZK就把这些变化通知给他们注册Watcher的客户端即推送系统于是作出相应的推送任务。另一种工作汇报模式一些类似于任务分发系统子任务启动后到zk来注册一个临时节点并且定时将自己的进度进行汇报将进度写回这个临时节点这样任务管理者就能够实时知道任务进度。总之使用zookeeper来进行分布式通知和协调能够大大降低系统之间的耦合 集群管理与Master选举 集群机器监控这通常用于那种对集群中机器状态机器在线率有较高要求的场景能够快速对集群中机器变化作出响应。这样的场景中往往有一个监控系统实时检测集群机器是否存活。过去的做法通常是监控系统通过某种手段比如ping定时检测每个机器或者每个机器自己定时向监控系统汇报“我还活着”。 这种做法可行但是存在两个比较明显的问题集群中机器有变动的时候牵连修改的东西比较多。有一定的延时。利用ZooKeeper有两个特性就可以实时另一种集群机器存活性监控系统 客户端在节点 x 上注册一个Watcher那么如果 x?的子节点变化了会通知该客户端。创建EPHEMERAL类型的节点一旦客户端和服务器的会话结束或过期那么该节点就会消失。例如监控系统在 /clusterServers 节点上注册一个Watcher以后每动态加机器那么就往 /clusterServers 下创建一个 EPHEMERAL类型的节点/clusterServers/{hostname}. 这样监控系统就能够实时知道机器的增减情况至于后续处理就是监控系统的业务了。 Master选举则是zookeeper中最为经典的应用场景了。在分布式环境中相同的业务应用分布在不同的机器上有些业务逻辑例如一些耗时的计算网络I/O处理往往只需要让整个集群中的某一台机器进行执行其余机器可以共享这个结果这样可以大大减少重复劳动提高性能于是这个master选举便是这种场景下的碰到的主要问题。 利用ZooKeeper的强一致性能够保证在分布式高并发情况下节点创建的全局唯一性即同时有多个客户端请求创建 /currentMaster 节点最终一定只有一个客户端请求能够创建成功。利用这个特性就能很轻易的在分布式环境中进行集群选取了。 另外这种场景演化一下就是动态Master选举。这就要用到?EPHEMERAL_SEQUENTIAL类型节点的特性了。 上文中提到所有客户端创建请求最终只有一个能够创建成功。在这里稍微变化下就是允许所有请求都能够创建成功但是得有个创建顺序于是所有的请求最终在ZK上创建结果的一种可能情况是这样 /currentMaster/{sessionId}-1 ,?/currentMaster/{sessionId}-2 ,?/currentMaster/{sessionId}-3 ….. 每次选取序列号最小的那个机器作为Master如果这个机器挂了由于他创建的节点会马上小时那么之后最小的那个机器就是Master了。 在搜索系统中如果集群中每个机器都生成一份全量索引不仅耗时而且不能保证彼此之间索引数据一致。因此让集群中的Master来进行全量索引的生成然后同步到集群中其它机器。另外Master选举的容灾措施是可以随时进行手动指定master就是说应用在zk在无法获取master信息时可以通过比如http方式向一个地方获取master。在Hbase中也是使用ZooKeeper来实现动态HMaster的选举。在Hbase实现中会在ZK上存储一些ROOT表的地址和 HMaster的地址HRegionServer也会把自己以临时节点Ephemeral的方式注册到Zookeeper中使得HMaster可以随时感知到各个HRegionServer的存活状态同时一旦HMaster出现问题会重新选举出一个HMaster来运行从而避免了 HMaster的单点问题 分布式锁 分布式锁这个主要得益于ZooKeeper为我们保证了数据的强一致性。锁服务可以分为两类一个是保持独占另一个是控制时序。 所谓保持独占就是所有试图来获取这个锁的客户端最终只有一个可以成功获得这把锁。通常的做法是把zk上的一个znode看作是一把锁通过 create znode的方式来实现。所有客户端都去创建 /distribute_lock 节点最终成功创建的那个客户端也即拥有了这把锁。控制时序就是所有视图来获取这个锁的客户端最终都是会被安排执行只是有个全局时序了。做法和上面基本类似只是这里 /distribute_lock 已经预先存在客户端在它下面创建临时有序节点这个可以通过节点的属性控制CreateMode.EPHEMERAL_SEQUENTIAL来指定。Zk的父节点/distribute_lock维持一份sequence,保证子节点创建的时序性从而也形成了每个客户端的全局时序。 分布式队列 队列方面简单地讲有两种一种是常规的先进先出队列另一种是要等到队列成员聚齐之后的才统一按序执行。对于第一种先进先出队列和分布式锁服务中的控制时序场景基本原理一致这里不再赘述。 第二种队列其实是在FIFO队列的基础上作了一个增强。通常可以在 /queue 这个znode下预先建立一个/queue/num 节点并且赋值为n或者直接给/queue赋值n表示队列大小之后每次有队列成员加入后就判断下是否已经到达队列大小决定是否可以开始执行了。这种用法的典型场景是分布式环境中一个大任务Task A需要在很多子任务完成或条件就绪情况下才能进行。这个时候凡是其中一个子任务完成就绪那么就去 /taskList 下建立自己的临时时序节点CreateMode.EPHEMERAL_SEQUENTIAL当 /taskList 发现自己下面的子节点满足指定个数就可以进行下一步按序进行处理了。 转载于:https://www.cnblogs.com/DreamDrive/p/6276778.html