西安网站优化排名,本溪网站制作,生态环境工程公司网站建设,深圳市龙岗区建设局官网网站一、安装JDK 1、在usr目录下新建Java目录#xff0c;然后将下载的JDK拷贝到这个新建的Java目录中1
创建目录命令#xff1a;mkdir /usr/java
2、进入到Java目录中解压下载的JDK
解压命令#xff1a;tar -zxvf jdk-18_linux-x64_bin.tar.gz
在1主机上#xff0c;将安装包…一、安装JDK 1、在usr目录下新建Java目录然后将下载的JDK拷贝到这个新建的Java目录中1
创建目录命令mkdir /usr/java
2、进入到Java目录中解压下载的JDK
解压命令tar -zxvf jdk-18_linux-x64_bin.tar.gz
在1主机上将安装包分发到其他机器
scp -r /opt/jdk1.8/ node2:/opt/
3、设置环境变量
设置命令vim /etc/profile
输入上面的命令后shiftg快速将光标定位到最后一行然后按“i”再输入下面代码
#set java environment
JAVA_HOME/usr/java/jdk1.8
CLASSPATH$JAVA_HOME/lib
PATH$PATH:$JAVA_HOME/bin
export PHTH JAVA_HOME CLASSPATH
填写完代码后按ESC键输入“:wq”保存并退出编辑页面
4、输入下面命令让设置的环境变量生效
生效命令source /etc/profile
5、验证JDK是否安装成功java
验证命令Java -version
二、安装Zookeeper Zookeeper集群搭建指的是ZooKeeper分布式模式安装。通常由2n1台server组成。这是因为为了保证Leader选举基于Paxos算法的实现能过得到多数的支持所以ZooKeeper集群的数量一般为奇数。
Zookeeper运行需要java环境所以需要提前安装jdk。对于安装leaderfollower模式的集群大致过程如下
配置主机名称到IP地址映射配置 修改ZooKeeper配置文件 远程复制分发安装文件 设置myid 启动ZooKeeper集群 如果要想使用Observer模式可在对应节点的配置文件添加如下配置
peerTypeobserver
其次必须在配置文件指定哪些节点被指定为Observer如
server.1:node1:2181:3181:observer
其次必须在配置文件指定哪些节点被指定为 Observer如 server.1:localhost:2181:3181:observer
这里我们安装的是leaderfollower模式
服务器IP
主机名 myid的值 第一步下载zookeeeper的压缩包下载网址如下
Index of /dist/zookeeper
我们在这个网址下载我们使用的zk版本为3.4.6
下载完成之后上传到我们的linux的/opt路径下准备进行安装
第二步解压
在node1主机上解压zookeeper的压缩包到/opt路径下去然后准备进行安装
tar -zxvf zookeeper-3.4.6.tar.gz
第三步修改配置文件
在node1主机上修改配置文件
cd /zookeeper-3.4.6/conf/
cp zoo_sample.cfg zoo.cfg
mkdir zkdatas
vim zoo.cfg
修改以下内容
#Zookeeper的数据存放目录
dataDir/opt/zookeeper-3.4.6/zkdatas
# 保留多少个快照
autopurge.snapRetainCount3
# 日志多少小时清理一次
autopurge.purgeInterval1
# 集群中服务器地址
#当前服务器的ip设置为0.0.0.0
server.1node1:2888:3888
server.2node2:2888:3888
server.3node3:2888:3888
第四步添加myid配置
在node1主机的/opt/zookeeper-3.4.6/zkdatas/这个路径下创建一个文件文件名为myid ,文件内容为1
vim myid
echo 1 /opt/zookeeper/data//myid
第五步安装包分发并修改myid的值
在node1主机上将安装包分发到其他机器
第一台机器上面执行以下两个命令
scp -r /opt/zookeeper-3.4.6/ node2:/opt/scp -r /opt/zookeeper-3.4.6/ node3:/opt/
第二台机器上修改myid的值为2
echo 2 /export/server/zookeeper-3.4.6/zkdatas/myid
第三台机器上修改myid的值为3
echo 3 /export/server/zookeeper-3.4.6/zkdatas/myid
第六步三台机器启动zookeeper服务
三台机器分别启动zookeeper服务
这个命令三台机器都要执行
/export/server/zookeeper-3.4.6/bin/zkServer.sh start
三台主机分别查看启动状态
/export/server/zookeeper-3.4.6/bin/zkServer.sh status 配置Path环境变量
1分别在三台中修改/etc/proflie,添加以下内容
export ZOOKEEPER_HOME/export/server/zookeeper-3.4.6
export PATH:$ZOOKEEPER_HOME/bin:$PATH
2分别在三台主机中,source /etc/profile
切记必须source不然不生效
# 启动服务 ./zkServer.sh start # 查看状态 ./zkServer.sh status # 停止服务 ./zkServer.sh stop # 重启服务 ./zkServer.sh restart 原文链接https://blog.csdn.net/qq_64495672/article/details/124371474
三、安装Kafka 1 解压安装包 [atguiguhadoop102 software]$ tar -zxvf kafka_2.12-3.0.0.tgz -C /opt/module/ 2 修改解压后的文件名称 [atguiguhadoop102 module]$ mv kafka_2.12-3.0.0/ kafka 3 进入到 /opt/module/kafka 目录修改配置文件 [atguiguhadoop102 kafka]$ cd config/ [atguiguhadoop102 config]$ vim server.properties 输入以下内容 #broker 的全局唯一编号不能重复只能是数字。 broker.id0 # 处理网络请求的线程数量 num.network.threads3 # 用来处理磁盘 IO 的线程数量 num.io.threads8 # 发送套接字的缓冲区大小 socket.send.buffer.bytes102400 # 接收套接字的缓冲区大小 socket.receive.buffer.bytes102400 # 请求套接字的缓冲区大小 socket.request.max.bytes104857600 #kafka 运行日志 ( 数据 ) 存放的路径路径不需要提前创建 kafka 自动帮你创建可以 配置多个磁盘路径路径与路径之间可以用 分隔 log.dirs/opt/module/kafka/datas #topic 在当前 broker 上的分区个数 num.partitions1 # 用来恢复和清理 data 下数据的线程数量 num.recovery.threads.per.data.dir1 # 每个 topic 创建时的副本数默认时 1 个副本 offsets.topic.replication.factor1 #segment 文件保留的最长时间超时将被删除 log.retention.hours168 # 每个 segment 文件的大小默认最大 1G log.segment.bytes1073741824 # 检查过期数据的时间默认 5 分钟检查一次是否数据过期 log.retention.check.interval.ms300000 # 配置连接 Zookeeper 集群地址在 zk 根目录下创建 /kafka 方便管理 zookeeper.connecthadoop102:2181,hadoop103:2181,hadoop104:2181/kafka 4 分发安装包 [atguiguhadoop102 module]$ scp -r /opt/zookeeper-3.5.8/ node2:/opt/ 5 分别在 hadoop103 和 hadoop104 上修改配置文件 /opt/module/kafka/config/server.properties 中的 broker.id1 、 broker.id2 注 broker.id 不得重复整个集群中唯一。 [atguiguhadoop103 module]$ vim kafka/config/server.properties 修改 : # The id of the broker. This must be set to a unique integer for each broker. broker.id1 [atguiguhadoop104 module]$ vim kafka/config/server.properties 修改 : # The id of the broker. This must be set to a unique integer for each broker. broker.id2 6 配置环境变量 1 在 /etc/profile.d/my_env.sh 文件中增加 kafka 环境变量配置 [atguiguhadoop102 module]$ sudo vim /etc/profile 增加如下内容 #KAFKA_HOME export KAFKA_HOME/opt/module/kafka export PATH$PATH:$KAFKA_HOME/bin 2 刷新一下环境变量。 [atguiguhadoop102 module]$ source /etc/profile 3 分发环境变量文件到其他节点并 source 。 [atguiguhadoop102 module]$ sudo /home/atguigu/bin/xsync /etc/profile.d/my_env.sh [atguiguhadoop103 module]$ source /etc/profile [atguiguhadoop104 module]$ source /etc/profile 7 启动集群 1 先启动 Zookeeper 集群然后启动 Kafka 。 [atguiguhadoop102 kafka]$ zk.sh start 2 依次在 hadoop102 、 hadoop103 、 hadoop104 节点上启动 Kafka 。 [atguiguhadoop102 kafka]$ bin/kafka-server-start.sh -daemon config/server.properties [atguiguhadoop103 kafka]$ bin/kafka-server-start.sh -daemon config/server.properties [atguiguhadoop104 kafka]$ bin/kafka-server-start.sh -daemon config/server.properties 注意配置文件的路径要能够到 server.properties 。 8 关闭集群 [atguiguhadoop102 kafka]$ bin/kafka-server-stop.sh [atguiguhadoop103 kafka]$ bin/kafka-server-stop.sh [atguiguhadoop104 kafka]$ bin/kafka-server-stop.sh 通过jps命令查看运行的情况