消息队列之kafka

kafka起初是由Linkedin开发的分布式消息系统,使用Scala编写,能做支持发布及订阅,因可在多个服务器进行水平扩展及高吞吐率而被广泛使用。目前更多的开源分布式处理系统,如Cloudera,Apache storm,Spark都支持kafka集成。

那什么是消息队列?

大家应该都会遇到过一个场景,去M点餐时收银员会给一个号牌,并告知等待叫号取餐,大家根据自己手里的号牌排队等叫号。即使人很多但是也很有秩序。

上述场景中,点餐的柜台就是一个消息队列,A把订餐的消息告知柜台,此时A是生产者的角色,柜台是传输的角色,等A取完餐又成了消费者的角色。这就是消息队列一个完整的走向。

消息队列的作用是在传输过程中能完整的的保存消息的内容,列队是提供路由及保消息的传递,如果发送消息时接收者暂不可用,消息队列会保留消息,直到传递成功。并且消息队列的优点是能实时返回执行结果。

大概介绍一些kafka的名词,例如producer(生产者),broker(篮子),consumer(消费者),topic(主题),partition(分区),consumer Group(消费组)……

生产者和消费者都是通过API去连接broker。

broker是存放消息队列的容器,producer会把消息放在broker中,consumer会订阅broker中的消息。

topic是用来区分不同的主题,隔离不同的数据。

partition是把topic中的数据存放在不同的分区,减轻服务器的吞吐。

consumer Group是针对订阅相同topic的worker做了一个分组,一个worker订阅后整个消费组都可以消费,也可以多个consumer Group去消费一个topic。

安装配置步骤:

注意:是在安装并启动了zookeeper后再安装kafka。

试验机器:192.168.10.10     hostname:zk1

192.168.10.11    hostname:zk2

192.168.10.12     hostname:zk3 

三台机器的操作步骤都是一致的,除了broker.id记得要改成不一样的数。

[^_^] ~# tar xf kafka_2.12-2.0.0.tgz -C /usr/local/

[^_^] ~# cd /usr/local/kafka_2.12-2.0.0/config/

[^_^] config# egrep -v "^$|#" server.properties   (字体加粗都是需要修改参数的)

broker.id=1

listeners=PLAINTEXT://zk1:9092

num.network.threads=3

num.io.threads=8

socket.send.buffer.bytes=102400

socket.receive.buffer.bytes=102400

socket.request.max.bytes=104857600

log.dirs=/var/log/kafka-logs

num.partitions=3

num.recovery.threads.per.data.dir=1

offsets.topic.replication.factor=1

transaction.state.log.replication.factor=1

transaction.state.log.min.isr=1

log.retention.hours=168

log.segment.bytes=1073741824

log.retention.check.interval.ms=300000

zookeeper.connect=zk1:2181,zk2:2181,zk3:2181

zookeeper.connection.timeout.ms=6000

group.initial.rebalance.delay.ms=0

[^_^] ~# cd /usr/local/kafka_2.12-2.0.0/bin/

[^_^] bin# ./kafka-server-start.sh ../config/server.properties &

测试:[^_^] ~# jps

4070 QuorumPeerMain

30363 ConsoleConsumer

29262 Kafka

31870 Jps

[^_^] ~#netstat -ntlp|grep kafka  kafka端口9092

验证kafka的生产和消费:

1.在生产者服务器上创建topic

[T_T] ~# cd /usr/local/kafka_2.12-2.0.0/bin/

[^_^] bin# ./kafka-topics.sh --create --zookeeper 192.168.10.10:2181 --replication-factor 2 --partitions 3 --topic xiaobai

--replication-factor 2  #复制两份

--partitions 3    #创建仨分区来存消息

--topic xiaobai   #主题为xiaobai

2.在生产者上发布

[T_T] bin# ./kafka-console-producer.sh --broker-list 192.168.10.10:9092 --topic xiaobai

此时console会处于阻塞状态,可以直接输入数据

3.创建消费者订阅

[T_T] bin# ./kafka-console-consumer.sh --bootstrap-server 192.168.10.10:9092 --topic xiaobai --from-beginning

当生产者在xiaobai的topic发布消息时,consumer的console就会显示。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • Kafka 特点 Kafka 最早是由 LinkedIn 公司开发一种分布式的基于发布/订阅的消息系统,之后成为 ...
    预流阅读 3,571评论 1 26
  • 大致可以通过上述情况进行排除 1.kafka服务器问题 查看日志是否有报错,网络访问问题等。 2. kafka p...
    生活的探路者阅读 7,614评论 0 10
  • # 消息队列之Kafka 作者:徐方友 审稿人:徐江河&李亮 ## 消息队列 ### 为什么使用消息队列? * *...
    麦黄与微风阅读 994评论 0 0
  • 嘿嘿,今天做了两件事,虽都是小事,但内心却充满欢愉。第一件呢就是在地铁上把座位让给了一对老夫妻,对面的一大叔一看见...
    heyjude123阅读 527评论 0 2
  • 那些只会叫我坚强的话都是放屁。
    单单六月未央阅读 307评论 0 0