`
bit1129
  • 浏览: 1069650 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

【Kafka六】Kafka Producer和Consumer多Broker、多Partition场景

 
阅读更多

0.Kafka服务器配置

3个broker

1个topic,6个partition,副本因子是2

2个consumer,每个consumer三个线程并发读取

 

1. Producer

package kafka.examples.multibrokers.producers;

import java.util.Properties;
import java.util.Random;

import kafka.javaapi.producer.Producer;
import kafka.producer.KeyedMessage;
import kafka.producer.ProducerConfig;

public class MultiBrokerProducer {
    private static Producer<String, String> producer;
    private static Properties props = new Properties();

    static {
        props.put("metadata.broker.list", "192.168.26.140:9092,192.168.26.140:9093,192.168.26.140:9094");
        props.put("serializer.class", "kafka.serializer.StringEncoder");
        props.put("partitioner.class", "kafka.examples.multibrokers.partitioner.TopicPartitioner");
        props.put("request.required.acks", "1");
        ProducerConfig config = new ProducerConfig(props);
        producer = new Producer<String, String>(config);
    }

    public static void main(String[] args) {
        Random rnd = new Random();
        String topic = "learn.topic.p8.r2";
        for (long i = 0; i < 10000; i++) {
            String key = "" + rnd.nextInt(255);
            String msg = "The " + i + " message is for key - " + key;
            KeyedMessage<String, String> data = new KeyedMessage<String, String>(topic, key, msg);
            producer.send(data);
           System.out.println(i);
        }
        producer.close();
    }
}

 

 

2. Partitioner

package kafka.examples.multibrokers.partitioner;


import kafka.producer.Partitioner;
import kafka.utils.VerifiableProperties;

import java.util.Random;

public class TopicPartitioner implements Partitioner {

    public TopicPartitioner(VerifiableProperties props) {

    }

    @Override
    public int partition(Object key, int numPartitions) {
        int hashCode;
        if (key == null) {
            hashCode = new Random().nextInt(255);
        } else {
            hashCode = key.hashCode();
        }
        if (numPartitions <= 0) {
            return 0;
        }
        return hashCode % numPartitions;
    }
}

 

3. Consumer

package kafka.examples.multibrokers.consumers;


import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Properties;
import java.util.concurrent.CountDownLatch;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;

import kafka.consumer.Consumer;
import kafka.consumer.ConsumerConfig;
import kafka.consumer.ConsumerIterator;
import kafka.consumer.KafkaStream;
import kafka.javaapi.consumer.ConsumerConnector;

public class MultiThreadHLConsumer {
    private ExecutorService executor;
    private final ConsumerConnector consumer;
    private final String topic;

    public MultiThreadHLConsumer(String zookeeper, String groupId,
                                 String topic) {
        Properties props = new Properties();
        props.put("zookeeper.connect", zookeeper);
        props.put("group.id", groupId);
        props.put("zookeeper.session.timeout.ms", "500");
        props.put("zookeeper.sync.time.ms", "250");
        props.put("auto.commit.interval.ms", "1000");
        consumer = Consumer.createJavaConsumerConnector(new
                ConsumerConfig(props));
        this.topic = topic;
    }

    public void doConsume(int threadCount) {
        Map<String, Integer> topicCount = new HashMap<String, Integer>();
        // Define thread count for each topic
        topicCount.put(topic, new Integer(threadCount));
        // Here we have used a single topic but we can also add multiple topics to topicCount MAP
        Map<String, List<KafkaStream<byte[], byte[]>>> consumerStreams = consumer.createMessageStreams(topicCount);
        List<KafkaStream<byte[], byte[]>> streams = consumerStreams.get(topic);
        System.out.println("streams length: " + streams.size());
        // Launching the thread pool
        executor = Executors.newFixedThreadPool(threadCount);
        //Creating an object messages consumption
        final CountDownLatch latch = new CountDownLatch(3);
        for (final KafkaStream stream : streams) {
            executor.submit(new Runnable() {
                @Override
                public void run() {
                    ConsumerIterator<byte[], byte[]> consumerIte = stream.iterator();
                    while (consumerIte.hasNext()) {
                        System.out.println("Message from thread :: " + Thread.currentThread().getName() + " -- " + new String(consumerIte.next().message()));
                    }
                    latch.countDown();
                }
            });
        }

        try {
            latch.await();
        } catch (InterruptedException e) {
            e.printStackTrace();
        }

        if (consumer != null) {
            consumer.shutdown();
        }

        if (executor != null)
            executor.shutdown();
    }

    public static void main(String[] args) {
        String topic = "learn.topic.p8.r2";
        int threadCount = 3;
        MultiThreadHLConsumer simpleHLConsumer = new MultiThreadHLConsumer("192.168.26.140:2181", "learn.topic.p8.r2.consumers.group", topic);
        simpleHLConsumer.doConsume(threadCount);
    }
}

 

 

4. 注意的问题

 

分享到:
评论

相关推荐

    Kafka高可用性实现原理

    Kafka 的高可用性实现原理是基于分布式系统架构、消息持久化、复制机制、同步机制、可靠性保证、Topic 和 Partition、Producer 和 Consumer 等机制的结合。这些机制确保了 Kafka 的高可用性和高吞吐量,满足了大多数...

    Kafka Producer机制优化-提高发送消息可靠性

    通过对Kafka Producer发送机制进行优化,特别是在面对Broker故障时的消息发送策略调整,可以显著提高系统的稳定性和消息发送的可靠性。通过上述改进方案,即使部分Broker出现故障,也能保证消息能够及时、准确地发送...

    Kafka简介及使用PHP处理Kafka消息

    Kafka 的整体架构非常简单,producer、broker(Kafka)和 consumer 都可以有多个。Producer,consumer 实现 Kafka 注册的接口,数据从 producer 发送到 broker,broker 承担一个中间缓存和分发的作用。broker 分发...

    Kafka 面试题.pdf

    下面是对 Kafka 的架构、Producer、Broker、Consumer、Message 等组件的详细解释: Kafka 架构 Kafka 的架构主要由 Producer、Broker、Consumer 三部分组成。Producer 负责生产消息,Broker 负责存储消息,...

    kafka资源文件.

    在Kafka中,数据以主题(Topic)的形式组织,每个主题可以分为多个分区(Partition),每个分区都有一个唯一的序号,保证了数据的有序性。Kafka服务器称为Broker,它们负责存储和转发消息。Producer是生产消息的...

    kafka环境搭建并和spring整合

    Kafka采用了一种简单的Publisher/Subscriber模型,即Producer负责将消息推送到Broker,而Consumer负责从Broker拉取消息。其架构特点如下: - **Push vs. Pull** Kafka采用了独特的Push/Pull混合模型。Producer以...

    星环大数据平台_Kafka消息发布与订阅.pdf

    综上所述,在星环大数据平台中使用Kafka进行消息发布与订阅涉及到多个组件和步骤,包括安装和配置TDHClient,创建和管理Kafka Topic,以及通过Kafka Console Producer和Kafka Console Consumer进行消息的发布和订阅...

    kafka_2.11-2.2.0.tgz

    在实际使用中,用户需要配置Kafka的broker、producer和consumer参数,例如设置broker的端口、数据存储路径、消费者的offset管理策略等。对于Kafka_2.11-2.2.0版本,用户可以参考官方文档,了解详细的配置选项和最佳...

    kafka集群搭建与使用

    Kafka 集群是由多个 Broker 组成的, Broker 之间通过 TCP 协议来通信。Producer 通过网络发送消息到 Kafka 集群,然后 Consumers 来进行消费。每个 Broker 都是自己所管理的 partition 的 leader,负责处理所有的...

    kafka_2.11安装包和配置文件

    同时,为了保证高可用性和数据安全性,通常会配置多个Broker,设置复制策略,并使用ISR(In-Sync Replicas)来确保数据一致性。 最后,记得定期检查和优化Kafka的性能,如监控磁盘空间、网络带宽和CPU使用率,调整...

    最新版kafka kafka_2.12-2.5.1.tgz

    - **主题与分区**: 数据在 Kafka 中以主题(Topic)的形式存在,每个主题可以被分成多个分区(Partition),确保数据的有序性和水平扩展性。 - **副本**: 分区内部有多个副本,其中一个为主副本(Leader),其他为...

    Kafka分布式消息队列的高性能研究.pdf

    Kafka的核心组件包括:Topic、Partition、Producer、Consumer和Broker。 1. Topic:是Kafka中的消息分类,类似于数据库中的表,用户可以根据不同的数据类型创建不同的Topic。每个Topic可以有多个Partition。 2. ...

    kafka的安装和简单实例测试

    3. **发布消息**:使用`/usr/local/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic dblab`启动Producer,并向`dblab` Topic发送一些测试消息,例如:“hello hadoop”、“hello mao”、...

    kafka-java-demo 基于java的kafka生产消费者示例

    主题可以被分成多个分区(Partition),每个分区可以有多个副本(Replica)以实现数据冗余和高可用性。 【多线程与Kafka】 在"Kafka-java-demo"中,你可能会看到如何利用多线程来并行处理生产或消费任务,提升数据...

    kafka基础知识及集群搭建

    Kafka的架构包括Producer(生产者)、Consumer(消费者)和Broker(服务器实例)。Producer发布消息到Topic,Consumer从Topic中消费消息。每个Topic可以被划分为多个Partition,Partition在Broker之间冗余备份,提高...

    图解 Kafka 之实战指南

    Kafka的核心组件包括Producer、Broker、Consumer以及ZooKeeper集群。ZooKeeper主要负责管理集群的元数据和控制节点的选举等关键任务。Producer将消息发送至Broker,Broker负责存储消息,而Consumer则订阅并消费这些...

    Kafka详细课程讲义

    3. **Partition**: 为了提高并行处理能力,每个主题被分为多个分区,每个分区在不同的broker上。 4. **Producer**: 生产者负责将消息发送到主题的特定分区。 5. **Consumer Group**: 消费者通过加入消费组来共同消费...

    kafka实战pdf

    10. **监控与运维**:学习如何监控Kafka的性能指标,如Producer和Consumer的速率、 Broker的磁盘使用情况等,以及如何进行故障排查和维护。 11. **Kafka与大数据生态集成**:分析Kafka在大数据生态系统中的位置,如...

    Kafka学习资料.pdf

    代码实例在Kafka学习资料中可能会展示如何配置Producer和Consumer,如何创建Topic和Partition,如何设置和管理消费者组,以及如何通过Kafka事务来保证消息的原子性。这些代码示例将会是理解Kafka实际操作的基础。 ...

    Kafka 入门基础篇.pptx

    Kafka 的组成部分包括 Producer、Broker、Consumer 和 Zookeeper 集群。其中,Producer 负责将消息发送到 Broker,Broker 负责将收到的消息存储到磁盘中,Consumer 负责从 Broker 订阅并消费消息,而 Zookeeper 负责...

Global site tag (gtag.js) - Google Analytics