0.Kafka服务器配置
3个broker
1个topic,6个partition,副本因子是2
2个consumer,每个consumer三个线程并发读取
1. Producer
package kafka.examples.multibrokers.producers; import java.util.Properties; import java.util.Random; import kafka.javaapi.producer.Producer; import kafka.producer.KeyedMessage; import kafka.producer.ProducerConfig; public class MultiBrokerProducer { private static Producer<String, String> producer; private static Properties props = new Properties(); static { props.put("metadata.broker.list", "192.168.26.140:9092,192.168.26.140:9093,192.168.26.140:9094"); props.put("serializer.class", "kafka.serializer.StringEncoder"); props.put("partitioner.class", "kafka.examples.multibrokers.partitioner.TopicPartitioner"); props.put("request.required.acks", "1"); ProducerConfig config = new ProducerConfig(props); producer = new Producer<String, String>(config); } public static void main(String[] args) { Random rnd = new Random(); String topic = "learn.topic.p8.r2"; for (long i = 0; i < 10000; i++) { String key = "" + rnd.nextInt(255); String msg = "The " + i + " message is for key - " + key; KeyedMessage<String, String> data = new KeyedMessage<String, String>(topic, key, msg); producer.send(data); System.out.println(i); } producer.close(); } }
2. Partitioner
package kafka.examples.multibrokers.partitioner; import kafka.producer.Partitioner; import kafka.utils.VerifiableProperties; import java.util.Random; public class TopicPartitioner implements Partitioner { public TopicPartitioner(VerifiableProperties props) { } @Override public int partition(Object key, int numPartitions) { int hashCode; if (key == null) { hashCode = new Random().nextInt(255); } else { hashCode = key.hashCode(); } if (numPartitions <= 0) { return 0; } return hashCode % numPartitions; } }
3. Consumer
package kafka.examples.multibrokers.consumers; import java.util.HashMap; import java.util.List; import java.util.Map; import java.util.Properties; import java.util.concurrent.CountDownLatch; import java.util.concurrent.ExecutorService; import java.util.concurrent.Executors; import kafka.consumer.Consumer; import kafka.consumer.ConsumerConfig; import kafka.consumer.ConsumerIterator; import kafka.consumer.KafkaStream; import kafka.javaapi.consumer.ConsumerConnector; public class MultiThreadHLConsumer { private ExecutorService executor; private final ConsumerConnector consumer; private final String topic; public MultiThreadHLConsumer(String zookeeper, String groupId, String topic) { Properties props = new Properties(); props.put("zookeeper.connect", zookeeper); props.put("group.id", groupId); props.put("zookeeper.session.timeout.ms", "500"); props.put("zookeeper.sync.time.ms", "250"); props.put("auto.commit.interval.ms", "1000"); consumer = Consumer.createJavaConsumerConnector(new ConsumerConfig(props)); this.topic = topic; } public void doConsume(int threadCount) { Map<String, Integer> topicCount = new HashMap<String, Integer>(); // Define thread count for each topic topicCount.put(topic, new Integer(threadCount)); // Here we have used a single topic but we can also add multiple topics to topicCount MAP Map<String, List<KafkaStream<byte[], byte[]>>> consumerStreams = consumer.createMessageStreams(topicCount); List<KafkaStream<byte[], byte[]>> streams = consumerStreams.get(topic); System.out.println("streams length: " + streams.size()); // Launching the thread pool executor = Executors.newFixedThreadPool(threadCount); //Creating an object messages consumption final CountDownLatch latch = new CountDownLatch(3); for (final KafkaStream stream : streams) { executor.submit(new Runnable() { @Override public void run() { ConsumerIterator<byte[], byte[]> consumerIte = stream.iterator(); while (consumerIte.hasNext()) { System.out.println("Message from thread :: " + Thread.currentThread().getName() + " -- " + new String(consumerIte.next().message())); } latch.countDown(); } }); } try { latch.await(); } catch (InterruptedException e) { e.printStackTrace(); } if (consumer != null) { consumer.shutdown(); } if (executor != null) executor.shutdown(); } public static void main(String[] args) { String topic = "learn.topic.p8.r2"; int threadCount = 3; MultiThreadHLConsumer simpleHLConsumer = new MultiThreadHLConsumer("192.168.26.140:2181", "learn.topic.p8.r2.consumers.group", topic); simpleHLConsumer.doConsume(threadCount); } }
4. 注意的问题
相关推荐
Kafka 的高可用性实现原理是基于分布式系统架构、消息持久化、复制机制、同步机制、可靠性保证、Topic 和 Partition、Producer 和 Consumer 等机制的结合。这些机制确保了 Kafka 的高可用性和高吞吐量,满足了大多数...
通过对Kafka Producer发送机制进行优化,特别是在面对Broker故障时的消息发送策略调整,可以显著提高系统的稳定性和消息发送的可靠性。通过上述改进方案,即使部分Broker出现故障,也能保证消息能够及时、准确地发送...
Kafka 的整体架构非常简单,producer、broker(Kafka)和 consumer 都可以有多个。Producer,consumer 实现 Kafka 注册的接口,数据从 producer 发送到 broker,broker 承担一个中间缓存和分发的作用。broker 分发...
下面是对 Kafka 的架构、Producer、Broker、Consumer、Message 等组件的详细解释: Kafka 架构 Kafka 的架构主要由 Producer、Broker、Consumer 三部分组成。Producer 负责生产消息,Broker 负责存储消息,...
在Kafka中,数据以主题(Topic)的形式组织,每个主题可以分为多个分区(Partition),每个分区都有一个唯一的序号,保证了数据的有序性。Kafka服务器称为Broker,它们负责存储和转发消息。Producer是生产消息的...
Kafka采用了一种简单的Publisher/Subscriber模型,即Producer负责将消息推送到Broker,而Consumer负责从Broker拉取消息。其架构特点如下: - **Push vs. Pull** Kafka采用了独特的Push/Pull混合模型。Producer以...
综上所述,在星环大数据平台中使用Kafka进行消息发布与订阅涉及到多个组件和步骤,包括安装和配置TDHClient,创建和管理Kafka Topic,以及通过Kafka Console Producer和Kafka Console Consumer进行消息的发布和订阅...
在实际使用中,用户需要配置Kafka的broker、producer和consumer参数,例如设置broker的端口、数据存储路径、消费者的offset管理策略等。对于Kafka_2.11-2.2.0版本,用户可以参考官方文档,了解详细的配置选项和最佳...
Kafka 集群是由多个 Broker 组成的, Broker 之间通过 TCP 协议来通信。Producer 通过网络发送消息到 Kafka 集群,然后 Consumers 来进行消费。每个 Broker 都是自己所管理的 partition 的 leader,负责处理所有的...
同时,为了保证高可用性和数据安全性,通常会配置多个Broker,设置复制策略,并使用ISR(In-Sync Replicas)来确保数据一致性。 最后,记得定期检查和优化Kafka的性能,如监控磁盘空间、网络带宽和CPU使用率,调整...
- **主题与分区**: 数据在 Kafka 中以主题(Topic)的形式存在,每个主题可以被分成多个分区(Partition),确保数据的有序性和水平扩展性。 - **副本**: 分区内部有多个副本,其中一个为主副本(Leader),其他为...
Kafka的核心组件包括:Topic、Partition、Producer、Consumer和Broker。 1. Topic:是Kafka中的消息分类,类似于数据库中的表,用户可以根据不同的数据类型创建不同的Topic。每个Topic可以有多个Partition。 2. ...
3. **发布消息**:使用`/usr/local/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic dblab`启动Producer,并向`dblab` Topic发送一些测试消息,例如:“hello hadoop”、“hello mao”、...
主题可以被分成多个分区(Partition),每个分区可以有多个副本(Replica)以实现数据冗余和高可用性。 【多线程与Kafka】 在"Kafka-java-demo"中,你可能会看到如何利用多线程来并行处理生产或消费任务,提升数据...
Kafka的架构包括Producer(生产者)、Consumer(消费者)和Broker(服务器实例)。Producer发布消息到Topic,Consumer从Topic中消费消息。每个Topic可以被划分为多个Partition,Partition在Broker之间冗余备份,提高...
Kafka的核心组件包括Producer、Broker、Consumer以及ZooKeeper集群。ZooKeeper主要负责管理集群的元数据和控制节点的选举等关键任务。Producer将消息发送至Broker,Broker负责存储消息,而Consumer则订阅并消费这些...
3. **Partition**: 为了提高并行处理能力,每个主题被分为多个分区,每个分区在不同的broker上。 4. **Producer**: 生产者负责将消息发送到主题的特定分区。 5. **Consumer Group**: 消费者通过加入消费组来共同消费...
10. **监控与运维**:学习如何监控Kafka的性能指标,如Producer和Consumer的速率、 Broker的磁盘使用情况等,以及如何进行故障排查和维护。 11. **Kafka与大数据生态集成**:分析Kafka在大数据生态系统中的位置,如...
代码实例在Kafka学习资料中可能会展示如何配置Producer和Consumer,如何创建Topic和Partition,如何设置和管理消费者组,以及如何通过Kafka事务来保证消息的原子性。这些代码示例将会是理解Kafka实际操作的基础。 ...
Kafka 的组成部分包括 Producer、Broker、Consumer 和 Zookeeper 集群。其中,Producer 负责将消息发送到 Broker,Broker 负责将收到的消息存储到磁盘中,Consumer 负责从 Broker 订阅并消费消息,而 Zookeeper 负责...