`
nweiren
  • 浏览: 15790 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

002.Kafka的Java访问

阅读更多
首先创建Producer,
其次创建Consumer,
最后自定义Partition
 
1)Kafka的生产者KafkaProducer
package com.sinovatech.framework.kafka;
 
import java.util.Properties;
 
import kafka.javaapi.producer.Producer;
import kafka.producer.KeyedMessage;
import kafka.producer.ProducerConfig;
 
public class KafkaProducer {
 private static String brokers = "192.168.30.104:9092,192.168.30.105:9092,192.168.30.106:9092";
 private static String serializer = "kafka.serializer.StringEncoder";
 private static String partition = "com.sinovatech.framework.kafka.KafkaPartitioner";
 private static final String topic = "mall";
 
 private static Properties props = new Properties();
 
 public static void main(String[] args) {
  // serializer.class为消息的序列化类
  props.put("serializer.class", serializer);
  // 配置metadata.broker.list, 为了高可用, 最好配两个broker实例
  props.put("metadata.broker.list", brokers);
  // ACK机制, 消息发送需要kafka服务端确认
  props.put("request.required.acks", "1");
  props.put("partitioner.class", partition);
 
  ProducerConfig config = new ProducerConfig(props);
  Producer<String, String> producer = new Producer<String, String>(config);
 
  for (int i = 0; i < 500; i++) {
   String message = "hello=" + i;
   String key = i + "";
   producer.send(new KeyedMessage<String, String>(topic, key, message));
  }
 }
}
 
1)Kafka的消费者KafkaConsumer
package com.sinovatech.framework.kafka;
 
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Properties;
 
import kafka.consumer.Consumer;
import kafka.consumer.ConsumerConfig;
import kafka.consumer.ConsumerIterator;
import kafka.consumer.KafkaStream;
import kafka.javaapi.consumer.ConsumerConnector;
 
public class KafkaConsumer extends Thread {
 private static String zookeepers = "192.168.30.104:2181,192.168.30.105:2181,192.168.30.106:2181";
 private static Properties props = new Properties();
 private static String group = "mallGroup";
 private static final String topic = "mall";
 private final ConsumerConnector consumer;
 
 public static void main(String[] args) {
  KafkaConsumer consumerThread = new KafkaConsumer();
  consumerThread.start();
 }
 
 public KafkaConsumer() {
  consumer = Consumer.createJavaConsumerConnector(createConsumerConfig());
 }
 
 private static ConsumerConfig createConsumerConfig() {
  // 设置zookeeper的链接地址
  props.put("zookeeper.connect", zookeepers);
  // 设置group id
  props.put("group.id", group);
  // kafka的group 消费记录是保存在zookeeper上的, 但这个信息在zookeeper上不是实时更新的, 需要有个间隔时间更新
  props.put("auto.commit.interval.ms", "1000");
  props.put("zookeeper.session.timeout.ms", "10000");
  return new ConsumerConfig(props);
 }
 
 public void run() {
  // 设置Topic=>Thread Num映射关系, 构建具体的流
  Map<String, Integer> topickMap = new HashMap<String, Integer>();
  topickMap.put(topic, 1);
 
  Map<String, List<KafkaStream<byte[], byte[]>>> streamMap = consumer
    .createMessageStreams(topickMap);
  KafkaStream<byte[], byte[]> stream = streamMap.get(topic).get(0);
  ConsumerIterator<byte[], byte[]> it = stream.iterator();
 
  System.out.println("*********Results********");
  while (it.hasNext()) {
   System.err.println("get data:" + new String(it.next().message()));
   try {
    Thread.sleep(500);
   } catch (InterruptedException e) {
    e.printStackTrace();
   }
  }
 }
 
}
 
3)Kafka自定义Partition
         发 送一条消息时,可以指定这条消息的key,producer根据这个key和partition机制来判断将这条消息发送到哪个parition。 paritition机制可以通过指定producer的paritition.class这一参数来指定,该class必须实现kafka.producer.Partitioner接口。本例中如果key可以被解析为整数则将对应的整数与partition总数取余,该消息会被发送到该数对应的partition。(每个parition都会有个序号)
 
package com.sinovatech.framework.kafka;
 
import kafka.producer.Partitioner;
 
public class KafkaPartitioner implements Partitioner {
// 解决执行报错的问题:Caused by: java.lang.NoSuchMethodException: //com.sinovatech.framework.kafka.KafkaPartitioner.<init>(kafka.utils.VerifiableProperties)
public KafkaPartitioner(VerifiableProperties props) {
 }
 public int partition(Object key, int numPartitions) {
  try {
   return Math.abs(Integer.parseInt((String) key) % numPartitions);
  } catch (Exception e) {
   return Math.abs(key.hashCode() % numPartitions);
  }
 }
 
}
分享到:
评论

相关推荐

    Kafka使用Java客户端进行访问的示例代码

    Kafka 使用 Java 客户端进行访问的示例代码 Kafka 是一种流行的分布式消息队列系统,广泛应用于大数据实时处理、日志聚合、消息队列等领域。Java 是一种广泛使用的编程语言,很多开发者使用 Java 进行 Kafka 的开发...

    2、java调用kafka api

    - **消费历史数据**:消费者可以设置偏移量(offset)来从特定位置开始消费,或者使用Kafka的Log Compaction功能来访问旧消息。 在Kafka中,消费者通常会负责管理自己的消费位置,因此在设计消费者时要考虑如何正确...

    Kafka 配置用户名密码例子

    - 创建ACL规则,指定哪些用户可以访问哪些资源: ```bash bin/kafka-acls.sh --authorizer kafka.security.auth.SimpleAclAuthorizer \ --authorizer-properties zookeeper.connect=localhost:2181 \ --add --...

    消息队列-kafka1

    Kafka 的 Java API 提供了一系列用于操作 Kafka 集群的方法,包括: * KafkaConsumer:用于消费消息。 * KafkaProducer:用于生产消息。 * ConsumerConfig:用于配置消费者的参数。 * ProducerConfig:用于配置生产...

    kafka的java入门项目

    kafka的java入门项目,该项目启动必须访问的环境已经配置并支持kafka服务

    demokafka.rar

    在Java客户端访问Kafka的过程中,我们通常会使用Apache Kafka官方提供的Java API,即KafkaProducer和KafkaConsumer。本文将详细解析如何利用这些API来实现一个完整的Kafka交互流程。 首先,我们需要理解Kafka的基本...

    kafka 安装学习

    访问 Apache Kafka 官方网站(https://kafka.apache.org/downloads)下载最新稳定版的 Kafka。解压到合适的目录,例如 `/usr/local/kafka`。 ### 3. 设置环境变量 在系统的环境变量配置文件(如 Linux 的 `~/....

    kafka-manager-1.3.3.21.zip

    5. **访问界面**:打开浏览器,输入 `http://&lt;your-server-ip&gt;:&lt;configured-port&gt;`,即可看到 Kafka Manager 的登录页面。 三、实际应用与操作 1. **添加集群**:在 Kafka Manager 界面中,首先需要添加要管理的 ...

    kafka-manager-1.3.3.21

    - 部署前确保服务器已安装 Java 运行环境,并且 Kafka-Manager 与 Kafka 集群之间网络畅通。 - 由于是 Web 应用,注意网络安全,避免对外开放直接访问。 5. **升级与维护** - 随着 Kafka 的版本更新,及时关注 ...

    java实现flink订阅Kerberos认证的Kafka消息示例源码

    在Java中实现Flink订阅Kerberos认证的Kafka消息是一项关键任务,特别是在处理安全敏感的数据流时。本文将深入探讨这一主题,介绍如何利用Apache Flink与Kafka的集成,以及如何通过Kerberos进行身份验证。 首先,...

    kafka-eagle-bin-2.1.0.tar.gz

    1. 确保运行环境已安装Java,并且版本符合Kafka Eagle的要求。 2. 配置文件中的参数需根据实际环境调整,特别是Kafka和Zookeeper的相关信息。 3. 部署时需注意防火墙设置,确保Kafka Eagle服务的端口对外可访问。 4....

    Kafka 监控软件kafka-eagle-web使用手册

    Kafka 监控软件 Kafka-Eagle-Web 使用手册 Kafka 监控软件 Kafka-Eagle-Web 概述 Kafka-Eagle-Web 是一个基于 Kafka 的监控软件,旨在提供 Kafka 集群的实时监控和管理功能。该软件提供了便捷的安装和配置过程,使...

    17道消息队列Kafka面试题!.pdf

    (3)通过index元数据全部映射到磁盘上,以便快速访问和检索消息。 这篇文章涵盖了Kafka的设计、数据传输、集群、producer、consumer、消息格式、存储设计等方面的知识点,对Kafka的理解和学习非常有帮助。

    Kafka 2.9 版本 jdk1.7+

    3. 启动Zookeeper服务,确保它在Kafka能够访问的状态。 4. 启动Kafka服务器,执行`bin/kafka-server-start.sh config/server.properties`命令。 5. 创建主题,使用`bin/kafka-topics.sh`工具。 6. 启动生产者,通过`...

    kafka-eagle v1.4.8安装包

    1. **Java运行环境**: Kafka-Eagle依赖Java,确保系统已安装JDK 1.8或更高版本。 2. **Apache Kafka**: 需要部署并运行Kafka集群,Kafka-Eagle将与其进行交互。 3. **Web服务器**: 可选,如果你打算在生产环境中部署...

    kafka-2.13-3.5.1.tgz

    - 编写生产者和消费者程序,利用Kafka提供的Java、Python等语言的客户端库进行数据交互。 5. **Kafka的应用场景** - **日志收集**:Kafka常用于收集各种系统的日志数据,提供统一的数据入口。 - **流处理**:...

    Apache Kafka

    6. **复制(Replication)**:Kafka通过在不同节点间复制分区来实现容错,确保即使部分节点故障,数据仍能被访问。 7. ** brokers**:Kafka集群由多个服务器(brokers)组成,它们存储主题的分区,并处理来自生产者...

    kafka-eagle-bin-2.0.5.tar.gz

    - **环境准备**:确保系统已安装Java运行环境(JRE)和Apache Kafka。 - **下载解压**:从官方网站或者镜像站点下载kafka-eagle-bin-2.0.5.tar.gz,解压至指定目录。 - **配置文件**:修改conf/kafka-eagle-...

    kafka-manager-2.0.0.2-kafka2.13.2-8.0.zip

    首先,确保系统已安装Java和Scala环境,然后从官方仓库下载kafka-manager-2.0.0.2-kafka2.13-2.8.0压缩包,解压后配置相关环境变量,包括Zookeeper地址、Kafka集群信息等。最后,启动Kafka Manager服务,并通过...

Global site tag (gtag.js) - Google Analytics