首先创建Producer,
其次创建Consumer,
最后自定义Partition
1)Kafka的生产者KafkaProducer
package com.sinovatech.framework.kafka;
import java.util.Properties;
import kafka.javaapi.producer.Producer;
import kafka.producer.KeyedMessage;
import kafka.producer.ProducerConfig;
public class KafkaProducer {
private static String brokers = "192.168.30.104:9092,192.168.30.105:9092,192.168.30.106:9092";
private static String serializer = "kafka.serializer.StringEncoder";
private static String partition = "com.sinovatech.framework.kafka.KafkaPartitioner";
private static final String topic = "mall";
private static Properties props = new Properties();
public static void main(String[] args) {
// serializer.class为消息的序列化类
props.put("serializer.class", serializer);
// 配置metadata.broker.list, 为了高可用, 最好配两个broker实例
props.put("metadata.broker.list", brokers);
// ACK机制, 消息发送需要kafka服务端确认
props.put("request.required.acks", "1");
props.put("partitioner.class", partition);
ProducerConfig config = new ProducerConfig(props);
Producer<String, String> producer = new Producer<String, String>(config);
for (int i = 0; i < 500; i++) {
String message = "hello=" + i;
String key = i + "";
producer.send(new KeyedMessage<String, String>(topic, key, message));
}
}
}
1)Kafka的消费者KafkaConsumer
package com.sinovatech.framework.kafka;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Properties;
import kafka.consumer.Consumer;
import kafka.consumer.ConsumerConfig;
import kafka.consumer.ConsumerIterator;
import kafka.consumer.KafkaStream;
import kafka.javaapi.consumer.ConsumerConnector;
public class KafkaConsumer extends Thread {
private static String zookeepers = "192.168.30.104:2181,192.168.30.105:2181,192.168.30.106:2181";
private static Properties props = new Properties();
private static String group = "mallGroup";
private static final String topic = "mall";
private final ConsumerConnector consumer;
public static void main(String[] args) {
KafkaConsumer consumerThread = new KafkaConsumer();
consumerThread.start();
}
public KafkaConsumer() {
consumer = Consumer.createJavaConsumerConnector(createConsumerConfig());
}
private static ConsumerConfig createConsumerConfig() {
// 设置zookeeper的链接地址
props.put("zookeeper.connect", zookeepers);
// 设置group id
props.put("group.id", group);
// kafka的group 消费记录是保存在zookeeper上的, 但这个信息在zookeeper上不是实时更新的, 需要有个间隔时间更新
props.put("auto.commit.interval.ms", "1000");
props.put("zookeeper.session.timeout.ms", "10000");
return new ConsumerConfig(props);
}
public void run() {
// 设置Topic=>Thread Num映射关系, 构建具体的流
Map<String, Integer> topickMap = new HashMap<String, Integer>();
topickMap.put(topic, 1);
Map<String, List<KafkaStream<byte[], byte[]>>> streamMap = consumer
.createMessageStreams(topickMap);
KafkaStream<byte[], byte[]> stream = streamMap.get(topic).get(0);
ConsumerIterator<byte[], byte[]> it = stream.iterator();
System.out.println("*********Results********");
while (it.hasNext()) {
System.err.println("get data:" + new String(it.next().message()));
try {
Thread.sleep(500);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
}
3)Kafka自定义Partition
发 送一条消息时,可以指定这条消息的key,producer根据这个key和partition机制来判断将这条消息发送到哪个parition。 paritition机制可以通过指定producer的paritition.class这一参数来指定,该class必须实现kafka.producer.Partitioner接口。本例中如果key可以被解析为整数则将对应的整数与partition总数取余,该消息会被发送到该数对应的partition。(每个parition都会有个序号)
package com.sinovatech.framework.kafka;
import kafka.producer.Partitioner;
public class KafkaPartitioner implements Partitioner {
// 解决执行报错的问题:Caused by: java.lang.NoSuchMethodException: //com.sinovatech.framework.kafka.KafkaPartitioner.<init>(kafka.utils.VerifiableProperties)
public KafkaPartitioner(VerifiableProperties props) {
}
}
public int partition(Object key, int numPartitions) {
try {
return Math.abs(Integer.parseInt((String) key) % numPartitions);
} catch (Exception e) {
return Math.abs(key.hashCode() % numPartitions);
}
}
}
相关推荐
Kafka 使用 Java 客户端进行访问的示例代码 Kafka 是一种流行的分布式消息队列系统,广泛应用于大数据实时处理、日志聚合、消息队列等领域。Java 是一种广泛使用的编程语言,很多开发者使用 Java 进行 Kafka 的开发...
- **消费历史数据**:消费者可以设置偏移量(offset)来从特定位置开始消费,或者使用Kafka的Log Compaction功能来访问旧消息。 在Kafka中,消费者通常会负责管理自己的消费位置,因此在设计消费者时要考虑如何正确...
- 创建ACL规则,指定哪些用户可以访问哪些资源: ```bash bin/kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer \ --authorizer-properties zookeeper.connect=localhost:2181 \ --add --...
Kafka 的 Java API 提供了一系列用于操作 Kafka 集群的方法,包括: * KafkaConsumer:用于消费消息。 * KafkaProducer:用于生产消息。 * ConsumerConfig:用于配置消费者的参数。 * ProducerConfig:用于配置生产...
kafka的java入门项目,该项目启动必须访问的环境已经配置并支持kafka服务
在Java客户端访问Kafka的过程中,我们通常会使用Apache Kafka官方提供的Java API,即KafkaProducer和KafkaConsumer。本文将详细解析如何利用这些API来实现一个完整的Kafka交互流程。 首先,我们需要理解Kafka的基本...
访问 Apache Kafka 官方网站(https://kafka.apache.org/downloads)下载最新稳定版的 Kafka。解压到合适的目录,例如 `/usr/local/kafka`。 ### 3. 设置环境变量 在系统的环境变量配置文件(如 Linux 的 `~/....
5. **访问界面**:打开浏览器,输入 `http://<your-server-ip>:<configured-port>`,即可看到 Kafka Manager 的登录页面。 三、实际应用与操作 1. **添加集群**:在 Kafka Manager 界面中,首先需要添加要管理的 ...
- 部署前确保服务器已安装 Java 运行环境,并且 Kafka-Manager 与 Kafka 集群之间网络畅通。 - 由于是 Web 应用,注意网络安全,避免对外开放直接访问。 5. **升级与维护** - 随着 Kafka 的版本更新,及时关注 ...
在Java中实现Flink订阅Kerberos认证的Kafka消息是一项关键任务,特别是在处理安全敏感的数据流时。本文将深入探讨这一主题,介绍如何利用Apache Flink与Kafka的集成,以及如何通过Kerberos进行身份验证。 首先,...
1. 确保运行环境已安装Java,并且版本符合Kafka Eagle的要求。 2. 配置文件中的参数需根据实际环境调整,特别是Kafka和Zookeeper的相关信息。 3. 部署时需注意防火墙设置,确保Kafka Eagle服务的端口对外可访问。 4....
Kafka 监控软件 Kafka-Eagle-Web 使用手册 Kafka 监控软件 Kafka-Eagle-Web 概述 Kafka-Eagle-Web 是一个基于 Kafka 的监控软件,旨在提供 Kafka 集群的实时监控和管理功能。该软件提供了便捷的安装和配置过程,使...
(3)通过index元数据全部映射到磁盘上,以便快速访问和检索消息。 这篇文章涵盖了Kafka的设计、数据传输、集群、producer、consumer、消息格式、存储设计等方面的知识点,对Kafka的理解和学习非常有帮助。
3. 启动Zookeeper服务,确保它在Kafka能够访问的状态。 4. 启动Kafka服务器,执行`bin/kafka-server-start.sh config/server.properties`命令。 5. 创建主题,使用`bin/kafka-topics.sh`工具。 6. 启动生产者,通过`...
1. **Java运行环境**: Kafka-Eagle依赖Java,确保系统已安装JDK 1.8或更高版本。 2. **Apache Kafka**: 需要部署并运行Kafka集群,Kafka-Eagle将与其进行交互。 3. **Web服务器**: 可选,如果你打算在生产环境中部署...
- 编写生产者和消费者程序,利用Kafka提供的Java、Python等语言的客户端库进行数据交互。 5. **Kafka的应用场景** - **日志收集**:Kafka常用于收集各种系统的日志数据,提供统一的数据入口。 - **流处理**:...
6. **复制(Replication)**:Kafka通过在不同节点间复制分区来实现容错,确保即使部分节点故障,数据仍能被访问。 7. ** brokers**:Kafka集群由多个服务器(brokers)组成,它们存储主题的分区,并处理来自生产者...
- **环境准备**:确保系统已安装Java运行环境(JRE)和Apache Kafka。 - **下载解压**:从官方网站或者镜像站点下载kafka-eagle-bin-2.0.5.tar.gz,解压至指定目录。 - **配置文件**:修改conf/kafka-eagle-...
首先,确保系统已安装Java和Scala环境,然后从官方仓库下载kafka-manager-2.0.0.2-kafka2.13-2.8.0压缩包,解压后配置相关环境变量,包括Zookeeper地址、Kafka集群信息等。最后,启动Kafka Manager服务,并通过...