Hadoop集群搭建:7.kafka安装

1,下载jar包并上传到 /software目录 :官网http://kafka.apache.org/downloads.html

2,解压安装包到module目录下:tar -zxvf kafka_2.11-0.11.0.0.tgz -C /module/

3,修改加压后的文件夹名:mv kafka_2.11-0.11.0.0/ kafka_2.11

4,在/module/kafka目录下创建logs文件夹:mkdir logs

5,进入cd config/  目录,修改配置文件:vi server.properties,修改以下内容(有的不需要修改,看项目配置需要):

#broker的全局唯一编号,不能重复

broker.id=0

#删除topic功能使能

delete.topic.enable=true

#处理网络请求的线程数量

num.network.threads=3

#用来处理磁盘IO的现成数量

num.io.threads=8

#发送套接字的缓冲区大小

socket.send.buffer.bytes=102400

#接收套接字的缓冲区大小

socket.receive.buffer.bytes=102400

#请求套接字的缓冲区大小

socket.request.max.bytes=104857600

#kafka运行日志存放的路径

log.dirs=/module/kafka_2.11/logs

logs地址

#topic在当前broker上的分区个数

num.partitions=1

#用来恢复和清理data下数据的线程数量

num.recovery.threads.per.data.dir=1

#segment文件保留的最长时间,超时将被删除

log.retention.hours=168

#配置连接Zookeeper集群地址

zookeeper.connect=node1:2181,node2:2181,node3:2181


配置集群地址

6,配置环境变量:vi /etc/profile

#KAFKA_HOME

export KAFKA_HOME=/module/kafka_2.11

export PATH=$PATH:$KAFKA_HOME/bin


kafka环境变量

保存退出。

7,xsync 分发环境变量文件和flume文件夹给其他节点

8,修改其他节点里面的broker.id

运行source /etc/profile 刷新配置

9,在各个节点启动集群:

后台运行:kafka-server-start.sh -daemon /module/kafka_2.5.0/config/server.properties

bin/kafka-server-start.sh config/server.properties &

记得保存快照

10,关闭集群

bin/kafka-server-stop.sh stop

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。