kafka具体的介绍这里不再进行叙述,已经有很多的好的文章进行叙述了,这里只是记录下自己搭建kafka环境的相关过程。
操作系统:centos6.5 64位
三台服务器(虚拟机)192.168.100.90,192.168.100.91,192.168.100.92
三台服务器组成kafka集群,90和91服务器组成zookeeper集群
一、安装zookeeper集群
zookeeper在kafka中起到了关键的作用,记录consumer、broker的注册信息,consumer的消费偏移量等等。当然,zookeeper不一定非得集群,部署一台也可以,这里只为涉及到相关的知识进行进群部署。
zookeeper部署很简单,只需要解压并且配置zoo.cfg即可。
1、解压zookeeper-3.4.6.tar.gz,这里解压到/usr/local目录
2、进入安装目录中的conf文件夹,复制zoo_sample.cfg文件并改名为zoo.cfg
cd /usr/local/zookeeper-3.4.6/conf cp zoo_sample.cfg zoo.cfg
3、编辑zoo.cfg
dataDir=/data/zookeeper #zookeeper数据目录 #有几个服务器集群就配置以下几个server,格式如:server.X=IP:port1:port2, X为一个数字,用于标志服务器,IP即为本服务器ip,port1用于集群中follower与leader进行通信端口,port2用于leader选举的端口 server.90=192.168.100.90:2888:3888 server.91=192.168.100.90:2888:3888
4、在上面配置的dataDir目录下新建myid文件,内容为上面配置的本机对应的server后面的那个数字,即server.X中X的值,这里为90。这里主要用来标志zookeeper自己是集群中的那一台。
echo 90 > myid
5、启动zookeeper
bin/zkServer.sh start #启动zookeeper bin/zkServer.sh status #查看zookeeper启动状态
注:每台服务器的zoo.cfg可以完全一样,增加或减少服务器增减配置文件中server.X=IP:port1:port2配置即可,请注意不同服务器中myid值不同,为本服务器对应的server.X中X值
二、安装kafka
kafka的安装也很简单,解压完毕配置下即可
1、下载 kafka_2.10-0.8.2.1.tgz,并解压,这里解压目录依然为/usr/local
2、进入kafka安装目录的config文件夹,编辑里面的server.properties文件,下面列出几个比较关键的配置
broker.id=90 #即为kafka服务器起一个id,集群中这个值应保持不同,可以用ip最后一段 host.name=192.168.100.90 #绑定该服务器对应的ip,程序访问该broker时就填写该ip zookeeper.connect=192.168.100.90:2181 #zookeeper地址
#注:以上仅为关键的几个配置,其余配置如接收消息字节限制,指定消息的保存时间,是否自动创建topic等等,这里不再叙述
3、启动
nohup bin/kafka-server-start.sh config/server.properties >kafka.log 2>&1 &
或
bin/kafka-server-start.sh -daemon config/server.properties &
#注:启动时请使用nohup或者-daemon方式启动,不然你关闭了你的终端,kafka服务也随着停了。其余kafka服务器的配置参考上面配置,请注意broker.id的配置,每台服务器应不同
4、常用命令
1、bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 2 --topic test #创建topic,replication-factor为复制集数,partitions 为该topic的partition数目,topic为创建topic名字
2、bin/kafka-topics.sh --list --zookeeper localhost:2181 #查看topic列表
3、bin/kafka-topics.sh -topic test -delete -zookeeper 192.168.100.90:2181 #删除topic,这是最新版本的kafka删除方式,最新版本删除须在server.properties中配置 delete.topic.enable=true
4、bin/kafka-run-class.sh kafka.admin.DeleteTopicCommand --topic test --zookeeper #老版本删除topic方式,具体版本的分界线忘记了
5、bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test #在控制台启动一个生产者,启动后输入发送内容即可
6、bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning #在控制台启动一个消费者,配合上面生产者使用,上面发送消息,这里控制台即打印出发送的消息,这里的消费不会影响你程序中对数据的消费,可以大胆使用
#注:以上命令在任意一台kafka服务器执行即可,请保证命令里zookeeper与broker地址填写正确
以上就是kafka的安装过程,如有说明不到位或者需要补充的地方请指出,谢谢
参考以及文章推荐:http://blog.csdn.net/lizhitao/article/details/39499283
相关推荐
kafka安装环境搭建
本文将详细讲解如何搭建 Kafka 开发环境,包括 Scala 环境的配置、Eclipse 中的 Scala 开发环境安装以及依赖包的管理。 首先,你需要对 Kafka 的功能有基本的了解,理解其分布式工作原理。Kafka 通常作为日志系统...
二、Kafka环境搭建 1. 下载Kafka安装包,并将其传输到服务器的/usr/local/software目录下。 2. 解压缩Kafka安装包,并将其重命名为kafka。 3. 配置Kafka环境变量,添加KAFKA_HOME和PATH环境变量。 4. 保存并退出...
KafKa 安装 环境搭建
Kafka环境搭建包括单机版和集群版两个方面。这里我们将详细介绍如何搭建Kafka单机版环境,以及常用配置参数。 1. **单机版环境搭建** 单机版环境搭建相对简单,主要步骤包括下载安装包、配置环境变量等。 2. **...
本篇文档将详细介绍如何在Linux环境中搭建Kafka集群,同时结合Hadoop和Spark的分布式安装,构建一个完整的数据处理平台。 首先,搭建Kafka集群的基础条件包括: 1. 至少一台Linux服务器,但为了高可用性,推荐多台...
在Linux环境下搭建Kafka环境,从零开始,搭建JDK环境变量,Kafka环境变量到以及消费者等
docker容器中搭建kafka集群环境,kafka集群配置注意事项与优化
1. 安装Java环境:Kafka和Zookeeper都需要Java运行环境,所以首先要确保系统安装了JDK。 2. 下载并解压Zookeeper:从Apache官网下载Zookeeper的最新稳定版本,解压到指定目录,并根据官方文档配置`zoo.cfg`文件,...
自己搭建的kafka开发环境,其中会参考其他的文档《03_重新设置maven的本地库位置》、《07_Nexus的介绍和安装》和《08_Nexus的配置》,这三篇文档也是我写的,可以在csdn中搜到。这个开发环境的搭建包括Kafka集群,...
通过VirtualBox安装多台虚拟机,实现集群环境搭建。 优势:一台电脑即可。 应用场景:测试,学习。 注意事项:请严格按照文档操作,作者已经按照文档操作实现环境搭建。 内附百度网盘下载地址,有hadoop+zookeeper+...
kafka集群搭建是大数据处理和实时数据处理的重要组件。下面是kafka集群搭建的详细方案: 一、准备工作 1. 关闭防火墙 关闭防火墙是kafka集群搭建的前提条件。可以使用systemctl disable firewalld和systemctl stop...
配置 Kafka 环境变量需要将 Kafka 的安装路径添加到环境变量中。然后,需要将文件拷贝到其他的机器中,并配置连接 Zookeeper 集群地址。 二、Kafka 集群搭建 1. 分别在 hdp-1 和 hdp-2 上修改 server.properties ...
至此,你已经在Windows上成功搭建了一个Kafka的单机环境,可以进行简单的生产和消费操作。对于更复杂的场景,如多节点集群、配置高可用性和数据持久化等,需要进一步学习和实践。如果你对此感兴趣,可以探索更多关于...
本文档详细介绍了如何在Linux环境下安装和配置Kafka服务,包括下载Kafka压缩包、解压、配置Kafka和Zookeeper的相关参数、启动服务以及验证服务是否正常工作的全过程。按照这些步骤操作,可以帮助用户顺利完成Kafka...
在Java开发环境中,Apache Kafka是一个广泛使用的分布式流处理平台,用于构建实时数据管道和流应用程序。为了使用Kafka进行开发,我们需要确保拥有正确的依赖项,这些依赖项通常以jar(Java Archive)文件的形式存在...