长沙制作网站公司吗,如何制作公司网页百度发布,俄罗斯免费服务器,宁波效果图公司一. 环境#xff1a; maxwell:v1.29.2 (从1.30开始maxwell停止了对java8的使用#xff0c;改为为11) maxwell1.29.2这个版本对mysql8.0以后的缺少utf8mb3字符的解码问题#xff0c;需要对原码中加上一个部分内容 #xff1a;具体也给大家做了总结 #xff1a;
关于v1.…一. 环境 maxwell:v1.29.2 (从1.30开始maxwell停止了对java8的使用改为为11) maxwell1.29.2这个版本对mysql8.0以后的缺少utf8mb3字符的解码问题需要对原码中加上一个部分内容 具体也给大家做了总结
关于v1.29.2 版本的Maxwell存在于mysql8.0后版本部分源码字符集处理确实问题-CSDN博客
二. 程序这里还是那一个kafka模拟器来实时向mysql写数据做测试 maxwell可以成功将监听到的binlog日志信息写入到kafka的主题中去消费
三. 关于maxwell的配置以及启动方式
1. 配置mysql的my.cnf配置文件开启binlog日志 sudo vim /etc/my.cnf在[mysqld]模块下添加一下内容[mysqld]
server_id1
log-binmysql-bin
binlog_formatrow#binlog-do-dbtest_maxwell然后并重启 Mysql 服务
sudo systemctl restart mysqld登录 mysql 并查看是否修改完成 使用
mysql show variables like %binlog%;
查看下列属性binlog_format | ROW 2.查看mysql生成的binlog日志文件:正常会生成二个文件 一个初始化文件一个索引记录文件
cd /var/lib/mysqlsudo ls -l |grep binlog
总用量 188500
-rw-r-----. 1 mysql mysql 154 11 月 17 16:30 mysql-
bin.000001
-rw-r-----. 1 mysql mysql 19 11 月 17 16:30 mysql-
bin.index 3.初始化Maxwell元数据库
1建立一个 maxwell 库用于存储 Maxwell 的元数据
mysql CREATE DATABASE maxwell;
2设置 mysql 用户密码安全级别感觉8.1后也不管用啊
mysql set global validate_password_length4;
mysql set global validate_password_policy0;
3创建一个maxwell账号可以操作该数据库 :usermaxwell ,PW123456
mysql GRANT ALL ON maxwell.* TO maxwell% IDENTIFIED BY 123456;
4分配这个账号可以监控其他数据库的权限查看其对应的binlog日志
mysql GRANT SELECT ,REPLICATION SLAVE , REPLICATION CLIENT ON
*.* TO maxwell%;
5最后记得刷新权限即可
mysqlflush privileges;
4.启动maxwell的方式有二种
4.1 .纯指令式
4.1.1 打印在console
bin/maxwell
--usermaxwell
--password123456
--hosthadoop102
--producerstdout
4.1.2 binlog消费到kafka的topic中
bin/maxwell
--usermaxwell
--password123456!
--hostlocalhost
--producerkafka
--kafka.bootstrap.servershadoop103:9092,hadoop104:9092
--kafka_topicmaxwelltest4.2 指定config文件式
vim config.properties# tl;dr config
log_levelinfo
producerkafka# mysql login info
hosthadoop102
usermaxwell
password123456# *** kafka ***
# list of kafka brokerskafka.bootstrap.servershosta:9092,hostb:9092
kafka_topicmaxwell
这种config式的配置之后在使用指令式的时候不能再加host参数和指定value了会报错 5.开启kafka消费者来消费binlog二进制数据
kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic topic_name# 如果要kafka消费的数据直接写入hdfskafka-console-consumer.sh --bootstrap-server hadoop103:9092,hadoop104:9092 --topic topic-name | hadoop fs -put - /dataset/lixianData/text.txt # 这里写入到这个txt文件中提前建好