Kafka是一个高吞吐量的分布式发布订阅消息系统,它在实时计算系统中有着非常强大的功能。通常情况下,使用Kafka构建系统或应用程序之间的数据管道,用来转换或响应实时数据,使数据能够及时地进行业务计算,得出相应结果
基础环境为zookeeper环境,也就是上篇文章配置好的集群(●'◡'●)
下载kafka
Index of /dist/kafka (apache.org)http://archive.apache.org/dist/kafka/
tar xf kafka_2.11-1.1.1.tgz ## ------- 配置 ------- vim kafka_2.11-1.1.1/config/server.properties 找到 broker.id=0 和 zookpeer.connect=localhost:2181 并注释 在三个节点的kafka配置文件添加: broker.id=1 #(与本机zookeeper的ID一致,在第二个节点就改为2,以此类推) zookeeper.connect=192.168.100.10:2181,192.168.100.20:2181,192.168.100.30:2181 #(三台节点的IP:2181) listeners=PLAINTEXT://192.168.100.10:9092 #(当前节点的IP:9092) ## ------- 启动 ------- (三个节点都启动) cd /root/kafka_2.11-1.1.1/bin ./kafka-server-start.sh -daemon ../config/server.properties ## ------ 测试 ------- [root@zookeeper1 bin]# ./kafka-topics.sh --create --zookeeper 192.168.100.10:2181 --replication-factor 1 --partitions 1 --topic test Created topic "test". [root@zookeeper2 bin]# ./kafka-topics.sh --list --zookeeper 192.168.100.20:2181 test [root@zookeeper3 bin]# ./kafka-topics.sh --list --zookeeper 192.168.100.30:2181 test



