`
wsdtq123
  • 浏览: 47630 次
  • 性别: Icon_minigender_1
  • 来自: 成都
社区版块
存档分类

kafka收发消息demo

阅读更多
使用原生态方式发送、接受消息

pom.xml
<dependency>
		<groupId>org.apache.kafka</groupId>
		<artifactId>kafka-clients</artifactId>
		<version>0.10.1.1</version>
	</dependency>


发消息
@Test
	public void TestProducer(){
		Properties props = new Properties();
		props.put("bootstrap.servers", "192.168.1.245:9393,192.168.1.246:9393");
        //“所有”设置将导致记录的完整提交阻塞,最慢的,但最持久的设置。
        props.put("acks", "all");
        //如果请求失败,生产者也会自动重试,即使设置成0 the producer can automatically retry.
        props.put("retries", 0);
        //The producer maintains buffers of unsent records for each partition. 
        props.put("batch.size", 16384);
        //默认立即发送,这里这是延时毫秒数
        props.put("linger.ms", 1);
        //生产者缓冲大小,当缓冲区耗尽后,额外的发送调用将被阻塞。时间超过max.block.ms将抛出TimeoutException
        props.put("buffer.memory", 33554432);
        //The key.serializer and value.serializer instruct how to turn the key and value objects the user provides with their ProducerRecord into bytes.
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        
        //创建kafka的生产者类
        // close();//Close this producer.
        // close(long timeout, TimeUnit timeUnit); //This method waits up to timeout for the producer to complete the sending of all incomplete requests.
        // flush() ;所有缓存记录被立刻发送
        Producer<String, String> producer = new KafkaProducer<String, String>(props);
        for(int i = 0; i < 10; i++){
        	
        	producer.send(new ProducerRecord<String, String>("d-topic", Integer.toString(i), Integer.toString(i)));
        }
        producer.flush();
        producer.close();
	}


收消息
@Test
	public void TestConsumer() throws InterruptedException{
		Properties props = new Properties();
		props.put("bootstrap.servers", "192.168.1.245:9393,192.168.1.246:9393");
		props.put("group.id", "GroupA");
		props.put("enable.auto.commit", "true");
		props.put("auto.commit.interval.ms", "1000");
		//从poll(拉)的回话处理时长
        props.put("session.timeout.ms", "30000");
        //poll的数量限制
        //props.put("max.poll.records", "100");
        props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(props);
        //订阅主题列表topic
        //consumer.subscribe(Arrays.asList("d-topic", "bar"));
        consumer.subscribe(Arrays.asList("d-topic"));
        while (true) {
        	ConsumerRecords<String, String> records = consumer.poll(100);
        	for (ConsumerRecord<String, String> record : records){
        		System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());
        	}
        	Thread.sleep(1000);
        }
	}


与spring集成
pom.xml
<dependency>
	    <groupId>org.springframework.integration</groupId>
	    <artifactId>spring-integration-kafka</artifactId>
	    <version>2.1.0.RELEASE</version>
	</dependency>


producer.xml
<?xml version="1.0" encoding="UTF-8"?>  
<beans xmlns="http://www.springframework.org/schema/beans"  
       xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"  
       xmlns:int="http://www.springframework.org/schema/integration"  
       xmlns:int-kafka="http://www.springframework.org/schema/integration/kafka"  
       xsi:schemaLocation="http://www.springframework.org/schema/integration/kafka  
        http://www.springframework.org/schema/integration/kafka/spring-integration-kafka.xsd  
        http://www.springframework.org/schema/integration  
        http://www.springframework.org/schema/integration/spring-integration.xsd  
        http://www.springframework.org/schema/beans  
        http://www.springframework.org/schema/beans/spring-beans.xsd">  
  
    <!-- 生产者配置 -->  
    <bean id="template" class="org.springframework.kafka.core.KafkaTemplate">  
        <constructor-arg index="0">  
            <bean class="org.springframework.kafka.core.DefaultKafkaProducerFactory">  
                <constructor-arg>  
                    <map>  
                        <entry key="bootstrap.servers" value="192.168.1.245:9393,192.168.1.246:9393"/>  
                        <entry key="acks" value="all"/>  
                        <entry key="retries" value="3"/>  
                        <entry key="batch.size" value="16384"/>  
                        <entry key="linger.ms" value="1"/>  
                        <entry key="buffer.memory" value="33554432"/>
                        <entry key="key.serializer" value="org.apache.kafka.common.serialization.StringSerializer"></entry>  
                        <entry key="value.serializer" value="org.apache.kafka.common.serialization.StringSerializer"></entry>  
                    </map>  
                </constructor-arg>  
            </bean>  
        </constructor-arg>  
    </bean>  
  
    <!-- 生产1号 -->  
    <int:channel id="inputToKafka">
        <int:queue/>  
    </int:channel>  
    <int-kafka:outbound-channel-adapter id="kafkaOutboundChannelAdapter"  
                                        kafka-template="template"  
                                        auto-startup="true"  
                                        channel="inputToKafka"  
                                        topic="d-topic">  
        <int:poller fixed-delay="1000" time-unit="MILLISECONDS"/>  
    </int-kafka:outbound-channel-adapter>
  
</beans>


cunsumer.xml
<?xml version="1.0" encoding="UTF-8"?>  
<beans xmlns="http://www.springframework.org/schema/beans"  
       xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"  
       xmlns:int="http://www.springframework.org/schema/integration"  
       xmlns:int-kafka="http://www.springframework.org/schema/integration/kafka"  
       xsi:schemaLocation="http://www.springframework.org/schema/integration/kafka  
        http://www.springframework.org/schema/integration/kafka/spring-integration-kafka.xsd  
        http://www.springframework.org/schema/integration  
        http://www.springframework.org/schema/integration/spring-integration.xsd  
        http://www.springframework.org/schema/beans  
        http://www.springframework.org/schema/beans/spring-beans.xsd">
        
    <!-- 消费配置 -->  
    <bean id="consumerProperties" class="java.util.HashMap">  
        <constructor-arg>  
            <map>  
                <entry key="bootstrap.servers" value="192.168.1.245:9393,192.168.1.246:9393"/>  
                <entry key="group.id" value="GroupA"/>  
                <entry key="enable.auto.commit" value="true"/>  
                <entry key="auto.commit.interval.ms" value="1000"/>  
                <entry key="session.timeout.ms" value="15000"/>  
                <entry key="key.deserializer" value="org.apache.kafka.common.serialization.StringDeserializer"/>  
                <entry key="value.deserializer" value="org.apache.kafka.common.serialization.StringDeserializer"/>  
            </map>  
        </constructor-arg>  
    </bean>
    
    <!-- 创建consumerFactory bean -->  
    <bean id="consumerFactory" class="org.springframework.kafka.core.DefaultKafkaConsumerFactory">  
        <constructor-arg>  
            <ref bean="consumerProperties"/>  
        </constructor-arg>  
    </bean>
    
    <!-- 消费1号 -->  
    <int:channel id="inputFromKafka">  
        <int:queue/>  
    </int:channel>
    
    <int-kafka:message-driven-channel-adapter auto-startup="true" channel="inputFromKafka" listener-container="container1" />  
  
    <bean id="container1" class="org.springframework.kafka.listener.KafkaMessageListenerContainer">  
        <constructor-arg index="0" ref="consumerFactory"/>  
        <constructor-arg index="1" ref="containerProperties"/>  
    </bean>  
  
    <bean id="containerProperties" class="org.springframework.kafka.listener.config.ContainerProperties">  
        <constructor-arg value="d-topic"/>  
    </bean>
   
</beans>


发送、接口消息代码
@RunWith(SpringJUnit4ClassRunner.class)
@ContextConfiguration(locations = {"classpath:applicationContext.xml"})
public class TestKafka {
	
	@Autowired  
    @Qualifier("inputToKafka")  
    MessageChannel messageChannel;
	
	@Autowired  
    @Qualifier("inputFromKafka")  
    PollableChannel pollableChannel;
	
		@Test
	public void TestSpringProducer(){
		for (int i = 0; i < 15; i++) {
			Message<String> message = new GenericMessage<String>("test_" + i);
			boolean flag = messageChannel.send(message);
			System.out.println(flag + "_" + i);
		}
	}
	
	@Test
	public void TestSpringConsumer(){
		Message<?> received = pollableChannel.receive(1000);  
        while (received != null) {
            System.out.println("message########" + received);  
            received = pollableChannel.receive(1000);  
        }
	}
}
分享到:
评论

相关推荐

    kafka-java-demo 基于java的kafka生产消费者示例

    除了基本的生产和消费功能,Kafka还支持一些高级特性,如幂等性生产者、事务性消费者、连接器(Connectors)以及Kafka Streams,这些都可能在"Kafka-java-demo"中有所体现,帮助你更好地理解和应用Kafka。...

    SpringBoot集成kafkaDemo

    6. **启动与测试**: 运行你的SpringBoot应用,并使用Kafka的命令行工具或生产者客户端发送消息到Kafka,观察消费者是否正确接收到并处理这些消息。 以上是SpringBoot集成Kafka的基础步骤。在实际应用中,你可能还...

    springboot-kafka-simple-demo

    总结来说,"springboot-kafka-simple-demo"展示了如何在SpringBoot应用中实现Kafka的简单使用,包括配置Kafka连接、创建生产者和消费者,并进行消息的发送与接收。这只是一个基础的起点,实际项目中可能还需要考虑...

    简单操作kafka的demo

    在本文中,我们将深入探讨如何在.NET ...这个简单的Demo展示了基本的Kafka操作,为更复杂的实时数据处理和流应用程序奠定了基础。在实际应用中,你可以根据需要调整配置参数,处理错误,以及实现更复杂的消息处理逻辑。

    kafka生产消费demo

    总结,这个“kafka生产消费demo”涵盖了Kafka 0.10.2版本的基本使用,包括生产者和消费者的创建、消息的发布与消费,以及可能的多线程处理。了解这些核心概念和API对于理解和构建基于Kafka的数据处理系统至关重要。

    springboot后端kafka demo

    `kafkaDemo`可能是一个简单的Spring Boot应用,它集成了Kafka的相关配置和API,用于发送消息到Kafka主题。在Spring Boot中,我们通常会使用`@EnableKafka`注解开启Kafka的支持,然后通过`@Service`或`@Component`...

    kafka-java-demo 基于java的kafka生产消费者例子

    在本文中,我们将深入探讨基于Java的Kafka生产者与消费者的实现,这主要围绕着"Kafka-java-demo"项目展开。Kafka是一个分布式流处理平台,由LinkedIn开发并开源,现在是Apache软件基金会的一部分。它被广泛用于实时...

    storm_Kafka_demo

    总的来说,storm_Kafka_demo项目展示了如何利用Apache Storm的实时处理能力和Kafka的消息队列特性,构建一个高效、可扩展的实时数据处理系统。这不仅涉及到技术实现,还涵盖了系统设计、故障恢复和性能优化等多个...

    kafka-demo

    Kafka 的核心特性包括发布/订阅消息系统、持久化存储、容错性以及在大规模分布式环境中高效的数据处理。 **Kafka Demo 8版与 10版的区别** Kafka 8版和10版主要的区别在于其内部的特性和改进。Kafka 的每个主要...

    C# kafka demo

    在本文中,我们将深入探讨如何在C#环境中使用Kafka,通过分析提供的"C# kafka demo"来学习关键概念和技术。Kafka是一种分布式流处理平台,常用于构建实时数据管道和流应用。C#中的Kafka集成使.NET开发者也能利用其...

    kafka生产者消费者Demo

    在“KafkaDemo”这个压缩包中,可能包含了以下内容: 1. 生产者代码示例:展示如何创建一个生产者实例,发布消息到特定主题。 2. 消费者代码示例:展示如何创建消费者实例,订阅主题并处理消息。 3. 配置文件:可能...

    storm集成kafka插demo.zip

    【标题】"storm集成kafka插demo.zip"指的是一个演示如何将Apache Storm与Apache Kafka集成的实例项目。这个压缩包包含了一个示例,用于展示如何在Storm拓扑中消费和处理Kafka的消息。 【描述】"storm集成kafka插件...

    C#_Kafka_Demo.rar

    《C#实现Kafka消息发布与订阅:Kafka.Net实战》 Kafka是一种分布式流处理平台,由LinkedIn开发并开源,现在是Apache软件基金会的一部分。它被设计为高吞吐量、低延迟的消息系统,广泛应用于实时数据管道和流式应用...

    kafka 简单demo

    **Kafka简介** ...通过这个demo,你可以学习如何创建生产者发送消息,以及如何创建消费者接收和处理这些消息。同时,你也将了解到Kafka的一些核心概念和工作原理,为进一步深入学习和应用Kafka打下基础。

    kafka-demo.zip

    在`kafka-demo`项目中,生产者部分可能包含了创建KafkaTemplate的配置,以及使用`send()`方法发送消息到特定主题的代码。而消费者部分则会展示如何设置一个监听器,用`@KafkaListener`注解来消费这些消息。 **生产...

    springMVC+多线程+kafka的 demo基于maven

    在本项目中,我们探索了如何将Spring MVC框架与多线程、线程池和Apache Kafka集成,构建一个高效...通过修改配置文件中的Kafka集群IP地址,这个demo就可以在不同的环境中运行,展示了这三者在实际应用中的集成和作用。

    KAFKA分布式消息系统(window)

    **KAFKA分布式消息系统在Windows环境下的搭建与应用** KAFKA是一个高吞吐量的分布式消息系统,由LinkedIn开发并开源,现在是Apache软件基金会的顶级项目。它主要设计用于处理实时流数据,允许应用程序发布和订阅...

    KafkaDemo示例

    **KafkaDemo示例详解** Kafka是一种分布式流处理平台,由LinkedIn开发并贡献给了Apache软件基金会,现在已经成为大数据领域中的重要组件。它主要用于构建实时数据管道和流应用,能够处理大量的实时数据。在这个名为...

    Spirng整合Kafka的Demo

    Spring整合Kafka是一个常见的任务,尤其对于构建大数据流处理或者实时消息传递的系统至关重要。Spring框架提供了Spring Kafka模块,使得开发者能够轻松地在Java应用中集成Apache Kafka。在这个"Spring整合Kafka的...

Global site tag (gtag.js) - Google Analytics