当前位置: 首页 > news >正文

市直部门网站建设维护工作总结烟台h5网站制作

市直部门网站建设维护工作总结,烟台h5网站制作,网站模板哪个好用,一元夺宝网站建设费用本文是SpringBootKafka的实战讲解#xff0c;如果对kafka的架构原理还不了解的读者#xff0c;建议先看一下《大白话kafka架构原理》、《秒懂kafka HA#xff08;高可用#xff09;》两篇文章。 一、生产者实践 普通生产者 带回调的生产者 自定义分区器 kafka事务提交…本文是SpringBootKafka的实战讲解如果对kafka的架构原理还不了解的读者建议先看一下《大白话kafka架构原理》、《秒懂kafka HA高可用》两篇文章。 一、生产者实践 普通生产者 带回调的生产者 自定义分区器 kafka事务提交 二、消费者实践 简单消费 指定topic、partition、offset消费 批量消费 监听异常处理器 消息过滤器 消息转发 定时启动/停止监听器 一、前戏 1、在项目中连接kafka因为是外网首先要开放kafka配置文件中的如下配置其中IP为公网IP advertised.listenersPLAINTEXT://112.126.74.249:9092 2、在开始前我们先创建两个topictopic1、topic2其分区和副本数都设置为2用来测试 [rootiZ2zegzlkedbo3e64vkbefZ ~]# cd /usr/local/kafka-cluster/kafka1/bin/ [rootiZ2zegzlkedbo3e64vkbefZ bin]# ./kafka-topics.sh --create --zookeeper 172.17.80.219:2181 --replication-factor 2 --partitions 2 --topic topic1 Created topic topic1. [rootiZ2zegzlkedbo3e64vkbefZ bin]# ./kafka-topics.sh --create --zookeeper 172.17.80.219:2181 --replication-factor 2 --partitions 2 --topic topic2 Created topic topic2. 当然我们也可以不手动创建topic在执行代码kafkaTemplate.send(topic1, normalMessage)发送消息时kafka会帮我们自动完成topic的创建工作但这种情况下创建的topic默认只有一个分区分区也没有副本。所以我们可以在项目中新建一个配置类专门用来初始化topic如下   Configuration public class KafkaInitialConfiguration {// 创建一个名为testtopic的Topic并设置分区数为8分区副本数为2Beanpublic NewTopic initialTopic() {return new NewTopic(testtopic,8, (short) 2 );} ​// 如果要修改分区数只需修改配置值重启项目即可// 修改分区数并不会导致数据的丢失但是分区数只能增大不能减小Beanpublic NewTopic updateTopic() {return new NewTopic(testtopic,10, (short) 2 );} } 3、新建SpringBoot项目 ① 引入pom依赖 dependencygroupIdorg.springframework.kafka/groupIdartifactIdspring-kafka/artifactId /dependency ② application.propertise配置本文用到的配置项这里全列了出来 ###########【Kafka集群】########### spring.kafka.bootstrap-servers112.126.74.249:9092,112.126.74.249:9093 ###########【初始化生产者配置】########### # 重试次数 spring.kafka.producer.retries0 # 应答级别:多少个分区副本备份完成时向生产者发送ack确认(可选0、1、all/-1) spring.kafka.producer.acks1 # 批量大小 spring.kafka.producer.batch-size16384 # 提交延时 spring.kafka.producer.properties.linger.ms0 # 当生产端积累的消息达到batch-size或接收到消息linger.ms后,生产者就会将消息提交给kafka # linger.ms为0表示每接收到一条消息就提交给kafka,这时候batch-size其实就没用了 ​ # 生产端缓冲区大小 spring.kafka.producer.buffer-memory 33554432 # Kafka提供的序列化和反序列化类 spring.kafka.producer.key-serializerorg.apache.kafka.common.serialization.StringSerializer spring.kafka.producer.value-serializerorg.apache.kafka.common.serialization.StringSerializer # 自定义分区器 # spring.kafka.producer.properties.partitioner.classcom.felix.kafka.producer.CustomizePartitioner ​ ###########【初始化消费者配置】########### # 默认的消费组ID spring.kafka.consumer.properties.group.iddefaultConsumerGroup # 是否自动提交offset spring.kafka.consumer.enable-auto-committrue # 提交offset延时(接收到消息后多久提交offset) spring.kafka.consumer.auto.commit.interval.ms1000 # 当kafka中没有初始offset或offset超出范围时将自动重置offset # earliest:重置为分区中最小的offset; # latest:重置为分区中最新的offset(消费分区中新产生的数据); # none:只要有一个分区不存在已提交的offset,就抛出异常; spring.kafka.consumer.auto-offset-resetlatest # 消费会话超时时间(超过这个时间consumer没有发送心跳,就会触发rebalance操作) spring.kafka.consumer.properties.session.timeout.ms120000 # 消费请求超时时间 spring.kafka.consumer.properties.request.timeout.ms180000 # Kafka提供的序列化和反序列化类 spring.kafka.consumer.key-deserializerorg.apache.kafka.common.serialization.StringDeserializer spring.kafka.consumer.value-deserializerorg.apache.kafka.common.serialization.StringDeserializer # 消费端监听的topic不存在时项目启动会报错(关掉) spring.kafka.listener.missing-topics-fatalfalse # 设置批量消费 # spring.kafka.listener.typebatch # 批量消费每次最多消费多少条消息 # spring.kafka.consumer.max-poll-records50 二、Hello Kafka 1、简单生产者 RestController public class KafkaProducer {Autowiredprivate KafkaTemplateString, Object kafkaTemplate; ​// 发送消息GetMapping(/kafka/normal/{message})public void sendMessage1(PathVariable(message) String normalMessage) {kafkaTemplate.send(topic1, normalMessage);} } 2、简单消费 Component public class KafkaConsumer {// 消费监听KafkaListener(topics {topic1})public void onMessage1(ConsumerRecord?, ? record){// 消费的哪个topic、partition的消息,打印出消息内容System.out.println(简单消费record.topic()-record.partition()-record.value());} } 上面示例创建了一个生产者发送消息到topic1消费者监听topic1消费消息。监听器用KafkaListener注解topics表示监听的topic支持同时监听多个用英文逗号分隔。启动项目postman调接口触发生产者发送消息 三、生产者 1、带回调的生产者 kafkaTemplate提供了一个回调方法addCallback我们可以在回调方法中监控消息是否发送成功 或 失败时做补偿处理有两种写法 GetMapping(/kafka/callbackOne/{message}) public void sendMessage2(PathVariable(message) String callbackMessage) {kafkaTemplate.send(topic1, callbackMessage).addCallback(success - {// 消息发送到的topicString topic success.getRecordMetadata().topic();// 消息发送到的分区int partition success.getRecordMetadata().partition();// 消息在分区内的offsetlong offset success.getRecordMetadata().offset();System.out.println(发送消息成功: topic - partition - offset);}, failure - {System.out.println(发送消息失败: failure.getMessage());}); } GetMapping(/kafka/callbackTwo/{message}) public void sendMessage3(PathVariable(message) String callbackMessage) {kafkaTemplate.send(topic1, callbackMessage).addCallback(new ListenableFutureCallbackSendResultString, Object() {Overridepublic void onFailure(Throwable ex) {System.out.println(发送消息失败ex.getMessage());}Overridepublic void onSuccess(SendResultString, Object result) {System.out.println(发送消息成功 result.getRecordMetadata().topic() - result.getRecordMetadata().partition() - result.getRecordMetadata().offset());}}); } 2、自定义分区器 我们知道kafka中每个topic被划分为多个分区那么生产者将消息发送到topic时具体追加到哪个分区呢这就是所谓的分区策略Kafka 为我们提供了默认的分区策略同时它也支持自定义分区策略。其路由机制为 ① 若发送消息时指定了分区即自定义分区策略则直接将消息append到指定分区 ② 若发送消息时未指定 patition但指定了 keykafka允许为每条消息设置一个key则对key值进行hash计算根据计算结果路由到指定分区这种情况下可以保证同一个 Key 的所有消息都进入到相同的分区 ③  patition 和 key 都未指定则使用kafka默认的分区策略轮询选出一个 patition ※ 我们来自定义一个分区策略将消息发送到我们指定的partition首先新建一个分区器类实现Partitioner接口重写方法其中partition方法的返回值就表示将消息发送到几号分区   public class CustomizePartitioner implements Partitioner {Overridepublic int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {// 自定义分区规则(这里假设全部发到0号分区)// ......return 0;} ​Overridepublic void close() { ​} ​Overridepublic void configure(MapString, ? configs) { ​} } 在application.propertise中配置自定义分区器配置的值就是分区器类的全路径名 # 自定义分区器 spring.kafka.producer.properties.partitioner.classcom.felix.kafka.producer.CustomizePartitioner 3、kafka事务提交 如果在发送消息时需要创建事务可以使用 KafkaTemplate 的 executeInTransaction 方法来声明事务 GetMapping(/kafka/transaction) public void sendMessage7(){// 声明事务后面报错消息不会发出去kafkaTemplate.executeInTransaction(operations - {operations.send(topic1,test executeInTransaction);throw new RuntimeException(fail);}); ​// 不声明事务后面报错但前面消息已经发送成功了kafkaTemplate.send(topic1,test executeInTransaction);throw new RuntimeException(fail); } 四、消费者 1、指定topic、partition、offset消费 前面我们在监听消费topic1的时候监听的是topic1上所有的消息如果我们想指定topic、指定partition、指定offset来消费呢也很简单KafkaListener注解已全部为我们提供   /*** Title 指定topic、partition、offset消费* Description 同时监听topic1和topic2监听topic1的0号分区、topic2的 0号和1号 分区指向1号分区的offset初始值为8* Author long.yuan* Date 2020/3/22 13:38* Param [record]* return void**/ KafkaListener(id consumer1,groupId felix-group,topicPartitions {TopicPartition(topic topic1, partitions { 0 }),TopicPartition(topic topic2, partitions 0, partitionOffsets PartitionOffset(partition 1, initialOffset 8)) }) public void onMessage2(ConsumerRecord?, ? record) {System.out.println(topic:record.topic()|partition:record.partition()|offset:record.offset()|value:record.value()); } 属性解释 ① id消费者ID ② groupId消费组ID ③ topics监听的topic可监听多个 ④ topicPartitions可配置更加详细的监听信息可指定topic、parition、offset监听。 上面onMessage2监听的含义监听topic1的0号分区同时监听topic2的0号分区和topic2的1号分区里面offset从8开始的消息。 注意topics和topicPartitions不能同时使用 2、批量消费 设置application.prpertise开启批量消费即可 # 设置批量消费 spring.kafka.listener.typebatch # 批量消费每次最多消费多少条消息 spring.kafka.consumer.max-poll-records50 接收消息时用List来接收监听代码如下 KafkaListener(id consumer2,groupId felix-group, topics topic1) public void onMessage3(ListConsumerRecord?, ? records) {System.out.println(批量消费一次records.size()records.size());for (ConsumerRecord?, ? record : records) {System.out.println(record.value());} } 3、ConsumerAwareListenerErrorHandler 异常处理器 通过异常处理器我们可以处理consumer在消费时发生的异常。 新建一个 ConsumerAwareListenerErrorHandler 类型的异常处理方法用Bean注入BeanName默认就是方法名然后我们将这个异常处理器的BeanName放到KafkaListener注解的errorHandler属性里面当监听抛出异常的时候则会自动调用异常处理器   // 新建一个异常处理器用Bean注入 Bean public ConsumerAwareListenerErrorHandler consumerAwareErrorHandler() {return (message, exception, consumer) - {System.out.println(消费异常message.getPayload());return null;}; } ​ // 将这个异常处理器的BeanName放到KafkaListener注解的errorHandler属性里面 KafkaListener(topics {topic1},errorHandler consumerAwareErrorHandler) public void onMessage4(ConsumerRecord?, ? record) throws Exception {throw new Exception(简单消费-模拟异常); } ​ // 批量消费也一样异常处理器的message.getPayload()也可以拿到各条消息的信息 KafkaListener(topics topic1,errorHandlerconsumerAwareErrorHandler) public void onMessage5(ListConsumerRecord?, ? records) throws Exception {System.out.println(批量消费一次...);throw new Exception(批量消费-模拟异常); } 4、消息过滤器 消息过滤器可以在消息抵达consumer之前被拦截在实际应用中我们可以根据自己的业务逻辑筛选出需要的信息再交由KafkaListener处理不需要的消息则过滤掉。 配置消息过滤只需要为 监听器工厂 配置一个RecordFilterStrategy消息过滤策略返回true的时候消息将会被抛弃返回false时消息能正常抵达监听容器。   Component public class KafkaConsumer {AutowiredConsumerFactory consumerFactory; ​// 消息过滤器Beanpublic ConcurrentKafkaListenerContainerFactory filterContainerFactory() {ConcurrentKafkaListenerContainerFactory factory new ConcurrentKafkaListenerContainerFactory();factory.setConsumerFactory(consumerFactory);// 被过滤的消息将被丢弃factory.setAckDiscarded(true);// 消息过滤策略factory.setRecordFilterStrategy(consumerRecord - {if (Integer.parseInt(consumerRecord.value().toString()) % 2 0) {return false;}//返回true消息则被过滤return true;});return factory;} ​// 消息过滤监听KafkaListener(topics {topic1},containerFactory filterContainerFactory)public void onMessage6(ConsumerRecord?, ? record) {System.out.println(record.value());} } 上面实现了一个过滤奇数、接收偶数的过滤策略我们向topic1发送0-99总共100条消息看一下监听器的消费情况可以看到监听器只消费了偶数 5、消息转发 在实际开发中我们可能有这样的需求应用A从TopicA获取到消息经过处理后转发到TopicB再由应用B监听处理消息即一个应用处理完成后将该消息转发至其他应用完成消息的转发。 在SpringBoot集成Kafka实现消息的转发也很简单只需要通过一个SendTo注解被注解方法的return值即转发的消息内容如下   /*** Title 消息转发* Description 从topic1接收到的消息经过处理后转发到topic2* Author long.yuan* Date 2020/3/23 22:15* Param [record]* return void**/ KafkaListener(topics {topic1}) SendTo(topic2) public String onMessage7(ConsumerRecord?, ? record) {return record.value()-forward message; } 6、定时启动、停止监听器 默认情况下当消费者项目启动的时候监听器就开始工作监听消费发送到指定topic的消息那如果我们不想让监听器立即工作想让它在我们指定的时间点开始工作或者在我们指定的时间点停止工作该怎么处理呢——使用KafkaListenerEndpointRegistry下面我们就来实现 ① 禁止监听器自启动 ② 创建两个定时任务一个用来在指定时间点启动定时器另一个在指定时间点停止定时器 新建一个定时任务类用注解EnableScheduling声明KafkaListenerEndpointRegistry 在SpringIO中已经被注册为Bean直接注入设置禁止KafkaListener自启动   EnableScheduling Component public class CronTimer { ​/*** KafkaListener注解所标注的方法并不会在IOC容器中被注册为Bean* 而是会被注册在KafkaListenerEndpointRegistry中* 而KafkaListenerEndpointRegistry在SpringIOC中已经被注册为Bean**/Autowiredprivate KafkaListenerEndpointRegistry registry; ​Autowiredprivate ConsumerFactory consumerFactory; ​// 监听器容器工厂(设置禁止KafkaListener自启动)Beanpublic ConcurrentKafkaListenerContainerFactory delayContainerFactory() {ConcurrentKafkaListenerContainerFactory container new ConcurrentKafkaListenerContainerFactory();container.setConsumerFactory(consumerFactory);//禁止KafkaListener自启动container.setAutoStartup(false);return container;} ​// 监听器KafkaListener(idtimingConsumer,topics topic1,containerFactory delayContainerFactory)public void onMessage1(ConsumerRecord?, ? record){System.out.println(消费成功record.topic()-record.partition()-record.value());} ​// 定时启动监听器Scheduled(cron 0 42 11 * * ? )public void startListener() {System.out.println(启动监听器...);// timingConsumer是KafkaListener注解后面设置的监听器ID,标识这个监听器if (!registry.getListenerContainer(timingConsumer).isRunning()) {registry.getListenerContainer(timingConsumer).start();}//registry.getListenerContainer(timingConsumer).resume();} ​// 定时停止监听器Scheduled(cron 0 45 11 * * ? )public void shutDownListener() {System.out.println(关闭监听器...);registry.getListenerContainer(timingConsumer).pause();} } 启动项目触发生产者向topic1发送消息可以看到consumer没有消费因为这时监听器还没有开始工作 11:42分监听器启动开始工作消费消息 1145分监听器停止工作
http://www.zqtcl.cn/news/954406/

相关文章:

  • 无锡网站制作公司排名网站开发与应用 大作业作业
  • 网站建设中搜索引擎wordpress 不在首页显示文章
  • 先做网站先备案嘉兴网站建设推广
  • 建设法律法规文本查询网站Html手机浏览网站变形
  • 怎么拥有个人网站wordpress做的网站
  • wordpress建什么站江苏网站建设效果
  • 建设网站网站多少钱东莞网站建设 光龙
  • 天津和平做网站哪家好搞笑网站建设目的和意义
  • 一般做网站带宽选择多大的wordpress页面侧菜单
  • 海淀青岛网站建设友情链接适用网站
  • 青海建设厅官方网站资阳seo
  • 网站个人备案 企业备案深圳高端网站建设网页设计
  • 网站广东省备案国产最好的a级suv88814
  • 没有公司怎么做网站西安市市政建设网站
  • 北京网站制作net2006装饰网站建设策划书
  • 建立什么网站中小学图书馆网站建设
  • 襄阳网站建设外包任县附近网站建设价格
  • led灯网站建设案例有没有什么东西可以做网站
  • 网站可视化设计企业网络管理系统
  • 优惠券怎做网站南宁网站公司
  • 灌南县规划局网站理想嘉苑规划建设那些公司做网站好
  • 大型网站开发的主流语言wordpress 连接flickr
  • 制作一个网站流程怎样做网站运营
  • 可以完成交易的网站 做微信公众号电商网站开发
  • 上海市建设安全协会官方网站机械加工怎么找客户
  • 郑州驾校网站建设互联网公司可通过数据分析人们的哪些方面
  • 珠海杰作网站建设网络公司做一个关于电影的网页设计
  • 电子商务网站建设需要哪些步骤网站开发维护合同书
  • 顺德网站设计成都网站优化方式
  • 宁波建网站哪家好用点网站后台 更新缓存