package com.paile.kafka.service.impl; import java.util.HashMap; import java.util.List; import java.util.Map; import java.util.Properties; import java.util.concurrent.ExecutorService; import java.util.concurrent.Executors; import kafka.consumer.ConsumerConfig; import kafka.consumer.ConsumerIterator; import kafka.consumer.KafkaStream; import kafka.javaapi.consumer.ConsumerConnector; import org.apache.log4j.Logger; import com.paile.command.MessageConsumerCommand; import com.paile.command.receiver.message.MessageConsumerReceiver; import com.paile.kafka.bean.MessageBean; import com.paile.utils.others.ObjectStreamManager; public class GroupConsumerManager { private final ConsumerConnector consumer; private final String topic; private ExecutorService executor; private Logger logger = Logger.getLogger(GroupConsumerManager.class); public GroupConsumerManager(String a_zookeeper, String a_groupId, String a_topic) { consumer = kafka.consumer.Consumer.createJavaConsumerConnector( createConsumerConfig(a_zookeeper, a_groupId)); this.topic = a_topic; } public void shutdown() { if (consumer != null) consumer.shutdown(); if (executor != null) executor.shutdown(); } public void run(int a_numThreads)throws Exception { Map<String, Integer> topicCountMap = new HashMap<String, Integer>(); topicCountMap.put(topic, new Integer(a_numThreads)); Map<String, List<KafkaStream<byte[], byte[]>>> consumerMap = consumer.createMessageStreams(topicCountMap); List<KafkaStream<byte[], byte[]>> streams = consumerMap.get(topic); System.out.println(streams.size()); // executor = Executors.newFixedThreadPool(a_numThreads); // for (final KafkaStream<byte[], byte[]> stream : streams) { ConsumerIterator<byte[], byte[]> it = stream.iterator(); while(it.hasNext()){ byte[] bt = it.next().message(); try { Object object = null; try { object = ObjectStreamManager.getInstance().toObject(bt); if(object!=null&&object instanceof MessageBean){ //接收到消息 把消息封装成MessageConsumerCommand命令,交后续执行 MessageBean bean = (MessageBean) object; MessageConsumerReceiver receiver = new MessageConsumerReceiver(bean); MessageConsumerCommand command = new MessageConsumerCommand(receiver); command.execute(); } } catch (Exception e) { e.printStackTrace(); } } catch (Exception e) { throw e; } } } } private ConsumerConfig createConsumerConfig(String a_zookeeper, String a_groupId) { Properties props = new Properties(); props.put("zookeeper.connect", a_zookeeper); props.put("group.id", a_groupId); props.put("zookeeper.session.timeout.ms", "15000"); props.put("zookeeper.sync.time.ms", "2000"); props.put("auto.commit.interval.ms", "10000"); return new ConsumerConfig(props); } public static void main(String[] args) { String zooKeeper = "192.168.1.101:2181"; String groupId = "pailegroup"; String topic = "paile01"; int threads = Integer.parseInt("1"); GroupConsumerManager example = new GroupConsumerManager(zooKeeper, groupId, topic); System.out.println("--------"); try { example.run(threads); } catch (Exception e) { e.printStackTrace(); } try { Thread.sleep(10000); } catch (InterruptedException ie) { } example.shutdown(); } }
相关推荐
消息中间件kafka 进行消息的分发和接收示例 应用中包含分通道发送和多线程接收
《C#实现Kafka消息发布与订阅:Kafka.Net实战》 Kafka是一种分布式流处理平台,由LinkedIn开发并开源,现在是Apache软件基金会的一部分。它被设计为高吞吐量、低延迟的消息系统,广泛应用于实时数据管道和流式应用...
4. **处理消息**: 通过`Consume`方法接收消息。这是一个阻塞调用,直到有新消息可用或超时。 ```csharp var consumeResult = consumer.Consume(cts.Token); Console.WriteLine($"Consumed message '{...
【标题】:kettle kafka 消息者插件 【正文】: Kettle Kafka 消息者插件是为 Pentaho Data Integration(也称为 Kettle 或 PDI)设计的一个组件,目的是为了帮助用户将Kafka数据流集成到Pentaho的数据处理流程中。...
在本文中,我们将深入探讨如何使用Java来发送和接收消息到Apache Kafka,这是一个流行的分布式流处理平台。Apache Kafka被广泛用于构建实时数据管道和流应用,因为它提供了高吞吐量、低延迟的消息传递能力。 首先,...
本文将详细介绍一款可视化Kafka测试工具,该工具能够简化Kafka消息的生产和消费过程,并提供直观的界面来帮助我们理解Kafka的工作原理。 **工具介绍** 这款可视化Kafka测试工具的主要功能是模拟发送Topic消息到...
unity利用kafka接收数据,只需填写ip端口,topic 即可接收消息;适用范围,unity编辑器,发布PC应用 说明:如果发布PC不可用,请手动将Plugins\X64文件夹里的dll 文件拷贝到发布文件kafka-Test_Data\Managed 路径下...
【Kafka消息助手】是一款高效、稳定的 Kafka 客户端工具,旨在帮助用户轻松连接 Kafka 集群,实现消息的快速发送与接收。这款助手以其强大的功能和便捷的操作,成为开发者们在处理 Kafka 消息传递过程中的得力助手。...
标题"使用netty实现TCP长链接消息写入kafka以及kafka批量消费数据"揭示了这个项目的核心内容:通过Netty接收TCP长连接的数据,并将这些数据存储到Kafka中,同时利用Kafka的批量消费功能对数据进行处理。下面我们将...
生产者发送消息到Kafka,消费者接收并处理这些消息,确保消息的正确分发。 总结,SpringMVC与Kafka的集成提供了一种强大的工具,用于构建实时、高并发的应用。通过合理的设计和配置,我们可以实现高效的消息分发,...
随后,文档介绍了如何创建Kafka Console Producer和Kafka Console Consumer,这两个组件分别负责在控制台向Kafka Topic发送消息和接收消息。在实验中需要在两个不同的Xshell窗口中分别创建这两个组件。Kafka Console...
5. **Kafka-example项目**:在提供的"Kafka-example"压缩包中,通常包含Java或Python等语言的示例代码,演示如何创建生产者和消费者,以及如何进行消息的发送和接收。这些样例代码可以帮助开发者快速理解Kafka API的...
在提供的 `SampleCode` 文件中,你将找到具体的代码示例,展示如何在 .NET Core 中设置 Kafka 生产者和消费者,以及如何发送和接收消息。通过学习和理解这些代码,你将能更好地掌握 .NET Core 下利用 Kafka 进行数据...
kafka-connect-twitter, Kafka 连接接收器/Twitter Kafka 连接 TwitterTwitter的Kafka 连接。 提供了源( 从 Twitter 到 Kafka ) 和接收器( 从 Kafka 到 Twitter ):接收接收来自 Kafka的普通字符串,这是使用 Tw
本实例将探讨如何使用Java API来发送和接收消息到Kafka。 1. **安装与配置Kafka** 在开始之前,你需要在本地或服务器上安装Kafka。这通常涉及下载最新版本的Kafka,解压并配置`server.properties`文件,设置`...
为了提高效率,Kafka 支持批量发送和接收消息,生产者可以一次性发送多条消息,消费者也可以一次性处理一批消息。 八、关于 SpringBoot 中的 Kafka “事务”: SpringBoot 集成了 Kafka 事务支持,允许在分布式环境...
在本文中,我们将深入探讨如何将SpringBoot与Apache Kafka整合,以实现在应用程序中的消息发送和接收。Apache Kafka是一款高性能的分布式消息中间件,而SpringBoot则是简化Java应用开发的框架。结合两者,我们可以...
这个处理器将接收来自Kafka的主题消息。 ```csharp consumer.Subscribe("my-topic"); // 替换为你要消费的主题名 while (true) { var consumeResult = consumer.Consume(); Console.WriteLine($"Received ...
6. 接收消息:创建一个监听器接口,使用`@RabbitListener`注解定义队列监听器。 接下来,Kafka是一个分布式流处理平台,常用于构建实时数据管道和流应用。在Spring Cloud中集成Kafka,你需要: 1. 添加依赖:在`...
分布式消息系统通常需要处理大量并发消息的接收和转发,系统设计的合理与否直接影响到整个系统的性能和稳定性。 5. 系统的实践应用和稳定性:文章最后提到该系统应用良好,运行稳定可靠。这说明通过实践检验,研究...