`
jaesonchen
  • 浏览: 311308 次
  • 来自: ...
社区版块
存档分类
最新评论

kafka安装和启动

 
阅读更多

假设你现在没有KafkaZooKeeper环境。

Step 1: 下载代码

下载0.10.0.0版本并且解压它。

> tar -xzf kafka_2.11-0.10.0.0.tgz 
> cd kafka_2.11-0.10.0.0

Step 2: 启动服务

运行kafka需要使用Zookeeper,所以你需要先启动Zookeeper,如果你没有Zookeeper,你可以使用kafka自带打包和配置好的Zookeeper。

> bin/zookeeper-server-start.sh config/zookeeper.properties
[2013-04-22 15:01:37,495] INFO Reading configuration from: config/zookeeper.properties (org.apache.zookeeper.server.quorum.QuorumPeerConfig)
...

现在启动kafka服务

> bin/kafka-server-start.sh config/server.properties &
[2013-04-22 15:01:47,028] INFO Verifying properties (kafka.utils.VerifiableProperties)
[2013-04-22 15:01:47,051] INFO Property socket.send.buffer.bytes is overridden to 1048576 (kafka.utils.VerifiableProperties)
...

Step 3: 创建一个主题(topic)

创建一个名为“test”的Topic,只有一个分区和一个备份:

> bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

创建好之后,可以通过运行以下命令,查看已创建的topic信息:

> bin/kafka-topics.sh --list --zookeeper localhost:2181
test

或者,除了手工创建topic外,你也可以配置你的broker,当发布一个不存在的topic时自动创建topic。

Step 4: 发送消息

Kafka提供了一个命令行的工具,可以从输入文件或者命令行中读取消息并发送给Kafka集群。每一行是一条消息。
运行producer(生产者),然后在控制台输入几条消息到服务器。

> bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test 
This is a message
This is another message

Step 5: 消费消息

Kafka也提供了一个消费消息的命令行工具,将存储的信息输出出来。

> bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning
This is a message
This is another message

如果你有2台不同的终端上运行上述命令,那么当你在运行生产者时,消费者就能消费到生产者发送的消息。
所有的命令行工具有很多的选项,你可以查看文档来了解更多的功能。

Step 6: 设置多个broker集群

到目前,我们只是单一的运行一个broker,,没什么意思。对于Kafka,一个broker仅仅只是一个集群的大小, 所有让我们多设几个broker.
首先为每个broker创建一个配置文件:

> cp config/server.properties config/server-1.properties 
> cp config/server.properties config/server-2.properties

现在编辑这些新建的文件,设置以下属性:

config/server-1.properties: 
    broker.id=1 
    listeners=PLAINTEXT://:9093 
    log.dir=/tmp/kafka-logs-1

config/server-2.properties: 
    broker.id=2 
    listeners=PLAINTEXT://:9094 
    log.dir=/tmp/kafka-logs-2

broker.id是集群中每个节点的唯一且永久的名称,我们修改端口和日志分区是因为我们现在在同一台机器上运行,我们要防止broker在同一端口上注册和覆盖对方的数据。

我们已经运行了zookeeper和刚才的一个kafka节点,所有我们只需要在启动2个新的kafka节点。

> bin/kafka-server-start.sh config/server-1.properties &
... 
> bin/kafka-server-start.sh config/server-2.properties &
...

现在,我们创建一个新topic,把备份设置为:3

> bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic

好了,现在我们已经有了一个集群了,我们怎么知道每个集群在做什么呢?运行命令“describe topics”

> bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic
Topic:my-replicated-topic    PartitionCount:1    ReplicationFactor:3    Configs:
Topic: my-replicated-topic    Partition: 0    Leader: 1    Replicas: 1,2,0    Isr: 1,2,0

这是一个解释输出,第一行是所有分区的摘要,每一个线提供一个分区信息,因为我们只有一个分区,所有只有一条线。

  • "leader":该节点负责所有指定分区的读和写,每个节点的领导都是随机选择的。
  • "replicas":备份的节点,无论该节点是否是leader或者目前是否还活着,只是显示。
  • "isr":备份节点的集合,也就是活着的节点集合。

我们运行这个命令,看看一开始我们创建的那个节点:

> bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test
Topic:test    PartitionCount:1    ReplicationFactor:1    Configs:
Topic: test    Partition: 0    Leader: 0    Replicas: 0    Isr: 0

没有惊喜,刚才创建的topic(主题)没有Replicas,所以是0。

让我们来发布一些信息在新的topic上:

> bin/kafka-console-producer.sh --broker-list localhost:9092 --topic my-replicated-topic
 ...
my test message 1
my test message 2
^C

现在,消费这些消息。

> bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic
 ...
my test message 1
my test message 2
^C

我们要测试集群的容错,kill掉leader,Broker1作为当前的leader,也就是kill掉Broker1。

> ps | grep server-1.properties
7564 ttys002    0:15.91 /System/Library/Frameworks/JavaVM.framework/Versions/1.6/Home/bin/java... 
> kill -9 7564

备份节点之一成为新的leader,而broker1已经不在同步备份集合里了。

> bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic
Topic:my-replicated-topic    PartitionCount:1    ReplicationFactor:3    Configs:
Topic: my-replicated-topic    Partition: 0    Leader: 2    Replicas: 1,2,0    Isr: 2,0

但是,消息仍然没丢:

> bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic
...
my test message 1
my test message 2
^C

Step 7: 使用 Kafka Connect 来 导入/导出 数据

从控制台写入和写回数据是一个方便的开始,但你可能想要从其他来源导入或导出数据到其他系统。对于大多数系统,可以使用kafka Connect,而不需要编写自定义集成代码。Kafka Connect是导入和导出数据的一个工具。它是一个可扩展的工具,运行连接器,实现与自定义的逻辑的外部系统交互。在这个快速入门里,我们将看到如何运行Kafka Connect用简单的连接器从文件导入数据到Kafka主题,再从Kafka主题导出数据到文件,首先,我们首先创建一些种子数据用来测试:

echo -e "foo\nbar" > test.txt

接下来,我们开始2个连接器运行在独立的模式,这意味着它们运行在一个单一的,本地的,专用的进程。我们提供3个配置文件作为参数。第一个始终是kafka Connect进程,如kafka broker连接和数据库序列化格式,剩下的配置文件每个指定的连接器来创建,这些文件包括一个独特的连接器名称,连接器类来实例化和任何其他配置要求的。

> bin/connect-standalone.sh config/connect-standalone.properties config/connect-file-source.properties config/connect-file-sink.properties

这是示例的配置文件,使用默认的本地集群配置并创建了2个连接器:第一个是导入连接器,从导入文件中读取并发布到Kafka主题,第二个是导出连接器,从kafka主题读取消息输出到外部文件,在启动过程中,你会看到一些日志消息,包括一些连接器实例化的说明。一旦kafka Connect进程已经开始,导入连接器应该读取从

test.txt

和写入到topic

connect-test

,导出连接器从主题

connect-test

读取消息写入到文件

test.sink.txt

. 我们可以通过验证输出文件的内容来验证数据数据已经全部导出:

cat test.sink.txt
 foo
 bar

注意,导入的数据也已经在Kafka主题

connect-test

里,所以我们可以使用该命令查看这个主题:

bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic connect-test --from-beginning
 {"schema":{"type":"string","optional":false},"payload":"foo"}
{"schema":{"type":"string","optional":false},"payload":"bar"}
...

连接器继续处理数据,因此我们可以添加数据到文件并通过管道移动:

echo "Another line" >> test.txt

你应该会看到出现在消费者控台输出一行信息并导出到文件。

Step 8: 使用Kafka Stream来处理数据

Kafka Stream是kafka的客户端库,用于实时流处理和分析存储在kafka broker的数据,这个快速入门示例将演示如何运行一个流应用程序。一个WordCountDemo的例子(为了方便阅读,使用的是java8 lambda表达式)

KTable wordCounts = textLines
    // Split each text line, by whitespace, into words.
    .flatMapValues(value -> Arrays.asList(value.toLowerCase().split("W+")))

    // Ensure the words are available as record keys for the next aggregate operation.
    .map((key, value) -> new KeyValue<>(value, value))

    // Count the occurrences of each word (record key) and store the results into a table named "Counts".
    .countByKey("Counts")

它实现了wordcount算法,从输入的文本计算出一个词出现的次数。然而,不像其他的WordCount的例子,你可能会看到,在有限的数据之前,执行的演示应用程序的行为略有不同,因为它的目的是在一个无限的操作,数据流。类似的有界变量,它是一种动态算法,跟踪和更新的单词计数。然而,由于它必须假设潜在的无界输入数据,它会定期输出其当前状态和结果,同时继续处理更多的数据,因为它不知道什么时候它处理过的“所有”的输入数据。

现在准备输入数据到kafka的topic中,随后kafka Stream应用处理这个topic的数据。

> echo -e "all streams lead to kafka\nhello kafka streams\njoin kafka summit" > file-input.txt

接下来,使用控制台的producer 将输入的数据发送到指定的topic(streams-file-input)中,(在实践中,stream数据可能会持续流入,其中kafka的应用将启动并运行)

> bin/kafka-topics.sh --create \
            --zookeeper localhost:2181 \
            --replication-factor 1 \
            --partitions 1 \
            --topic streams-file-input
> cat /tmp/file-input.txt | ./bin/kafka-console-producer --broker-list localhost:9092 --topic streams-file-input

现在,我们运行 WordCount 处理输入的数据:

> ./bin/kafka-run-class org.apache.kafka.streams.examples.wordcount.WordCountDemo

不会有任何的STDOUT输出,除了日志,结果不断地写回另一个topic(streams-wordcount-output),demo运行几秒,然后,不像典型的流处理应用程序,自动终止。

现在我们检查WordCountDemo应用,从输出的topic读取。

> ./bin/kafka-console-consumer --zookeeper localhost:2181 
            --topic streams-wordcount-output 
            --from-beginning 
            --formatter kafka.tools.DefaultMessageFormatter 
            --property print.key=true 
            --property print.key=true 
            --property key.deserializer=org.apache.kafka.common.serialization.StringDeserializer 
            --property value.deserializer=org.apache.kafka.common.serialization.LongDeserializer

输出数据打印到控台(你可以使用Ctrl-C停止):

all     1
streams 1
lead    1
to      1
kafka   1
hello   1
kafka   2
streams 2
join    1
kafka   3
summit  1
^C

第一列是message的key,第二列是message的value,要注意,输出的实际是一个连续的更新流,其中每条数据(即:原始输出的每行)是一个单词的最新的count,又叫记录键“kafka”。对于同一个key有多个记录,每个记录之后是前一个的更新。



作者:半兽人
链接:http://orchome.com/6
来源:OrcHome
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
 
分享到:
评论

相关推荐

    Windows zookeeper/kafka开启自启动

    Windows 环境 为zookeeper和kafka配置开机自启动服务。

    Kafka安装文档和安装包

    **Kafka** 是一个分布式流处理平台,由LinkedIn开发并贡献...以上就是关于Kafka的基本知识和安装过程。理解并掌握这些内容对于成功部署和使用Kafka至关重要。在实践中,还需要不断探索和优化以适应具体业务场景的需求。

    Kafka安装与部署指南

    总结来说,Kafka的安装和部署涉及到Java环境的准备、下载与解压Kafka、配置服务器属性、启动ZooKeeper和Kafka服务,以及创建和测试消息传递。了解这些基本步骤和概念对于理解和操作Kafka至关重要。在实际应用中,你...

    Kafka安装手册(Linux)

    本文档详细介绍了如何在Linux环境下安装和配置Kafka服务,包括下载Kafka压缩包、解压、配置Kafka和Zookeeper的相关参数、启动服务以及验证服务是否正常工作的全过程。按照这些步骤操作,可以帮助用户顺利完成Kafka...

    kafka安装及详细介绍

    2. 启动 KAFKA 环境:启动 ZooKeeper 服务和 Kafka broker 服务。 3. 建立主题:建立主题以储存您的活动。 Kafka 中的主题 * 主题名称:示例主题名称可以是“付款”。 * 多生产者和多消费者:一个主题可以有零个,...

    kafka安装与配置

    **Kafka安装与配置指南** Kafka是一款分布式流处理平台,由LinkedIn开发并贡献给了Apache软件基金会。它被广泛用于实时数据管道和流处理任务,能够处理大量的实时数据。在这个指南中,我们将深入探讨Kafka的安装...

    linux安装kafka教程

    本教程将指导您在 Linux 环境中安装和配置 Kafka。 一、Kafka 安装 Kafka 可以通过两种方式安装:手动下载和命令下载。手动下载可以从 Apache Kafka 官方网站下载对应的版本,然后上传到服务器。命令下载可以使用 ...

    Kafka安装(安装与配置).pdf

    ### Kafka安装与配置详解 #### 一、Kafka简介 Apache Kafka是一种分布式流处理平台,主要功能包括发布和订阅记录流、存储...至此,Kafka集群安装与配置的基本流程已经完成,接下来可以进行进一步的功能测试和使用。

    windows-kafka安装.rar

    2. **kafka启停.txt**: 这个文本文件很可能是关于如何启动和停止Kafka服务的指南。在Windows环境下,启动和关闭Kafka服务的命令可能与Linux有所不同。 **安装步骤** 1. **解压Kafka**: 使用解压工具(如7-Zip)...

    linux安装kafka监控EFAK安装.docx

    Kafka的启动和停止通常通过`kafka.sh`脚本来进行。在开始EFAK的安装前,需要对Kafka的启动命令做一些调整,以优化JVM参数。在`/home/hadoop/local/kafka/bin/kafka-server-start.sh`文件中,将默认的`KAFKA_HEAP_...

    kafka 安装 部署 实用

    通过上述步骤,您可以顺利完成Kafka的安装和配置,并能够开始使用Kafka的基本功能,如创建主题、启动生产者和消费者等。Kafka提供了丰富的特性和高度可扩展性,非常适合于构建大规模的实时数据处理系统。随着对Kafka...

    介绍kafka及kafka集群安装

    通过本文档的学习,我们不仅深入了解了 Kafka 的架构原理和使用方法,还掌握了 Kafka 集群的安装部署过程。此外,我们还学习了 Kafka 生产者和消费者的 Java API 使用方法,以及 JMS 规范的相关概念。这些知识对于...

    kafka安装手册

    kafka安装手册 Kafka 是一种流行的分布式流处理平台,由 Apache 软件基金会开发和维护。Kafka 通过提供高吞吐量、持久化、多订阅者支持等特性,满足了大数据处理和实时数据处理的需求。 Kafka 集群安装 Kafka ...

    安装kafka的安装方法,以及需要的程序。

    总的来说,安装Kafka涉及下载和解压安装包,配置环境变量,修改服务器配置,以及启动ZooKeeper和Kafka服务。理解并正确配置这些步骤对于构建一个稳定、高效的Kafka集群至关重要。记住,随着Kafka版本的更新,配置...

    kafka的安装和简单使用

    以下是对 Kafka 安装、配置和使用的详细说明: 1. **安装 Kafka**: - 下载 Kafka 安装包:可以从 Apache 官网获取最新版本的 Kafka,这里以 `kafka_2.11-0.10.2.1` 版本为例。 - 解压缩:使用 `tar` 命令解压...

    Kafka安装部署与Java调用.zip

    本资料主要涵盖了Kafka的安装部署以及Java API的调用方法,分为单机版和集群版两种环境。 ### Kafka安装部署 #### 单机版安装 1. **下载**: 首先,你需要从Apache Kafka的官方网站下载最新版本的Kafka。确保下载与...

    kafka的安装和简单实例测试

    5. **启动Kafka服务**:在另一个终端中,执行`cd /usr/local/kafka/`和`./bin/kafka-server-start.sh config/server.properties`来启动Kafka服务。 #### 四、Kafka的简单实例测试 完成Kafka的安装之后,我们可以...

    kafka消息队列运维工具和相关安装目录文件总结

    2. **kafka-server-stop.sh** 和 **kafka-server-start.sh**:这两个脚本分别用于停止和启动Kafka服务器。请注意,`kafka-server-stop.sh`有时可能会有问题,需要通过`netstat`命令和`kill`命令手动终止进程。 3. *...

    kafka部署和使用详尽PDF

    集群启动和监控与单机部署类似,但需分别在每台服务器上启动Zookeeper和Kafka,确保所有节点都能正常通信并参与集群。 总结,这份PDF提供了从基础环境准备到Kafka服务启动的完整步骤,适合初学者和运维人员参考。...

Global site tag (gtag.js) - Google Analytics