`

kafka与spring的整合

阅读更多
首先导入两个包:
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka-clients</artifactId>
<version>0.10.0.0</version>
</dependency>

<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
<version>1.0.5.RELEASE</version>
</dependency>

一个kafkaClient包,一个spring整合包。

然后建立生产者配置文件:
kafka_producer.xml
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
	xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:context="http://www.springframework.org/schema/context"
	xsi:schemaLocation="http://www.springframework.org/schema/beans
           http://www.springframework.org/schema/beans/spring-beans.xsd
           http://www.springframework.org/schema/context
           http://www.springframework.org/schema/context/spring-context.xsd">
    <!-- kafkaProducer的配置文件 -->
	<bean id="producerProperties" class="java.util.HashMap">
		<constructor-arg>
			<map>
				<entry key="bootstrap.servers" value="localhost:9092" />
				<entry key="group.id" value="test" />
				<entry key="retries" value="1" />
				<entry key="batch.size" value="16384" />
				<entry key="linger.ms" value="1" />
				<entry key="buffer.memory" value="33554432" />
				<entry key="key.serializer"
					value="org.apache.kafka.common.serialization.StringSerializer" />
				<entry key="value.serializer"
					value="org.apache.kafka.common.serialization.StringSerializer" />
			</map>
		</constructor-arg>
	</bean>
     <!-- 生成 KafkaProducer对象-->
	<bean id="producerFactory"
		class="org.springframework.kafka.core.DefaultKafkaProducerFactory">
		<constructor-arg>
			<ref bean="producerProperties" />
		</constructor-arg>
	</bean>
    <!-- 用于发送信息 -->
	<bean id="kafkaTemplate" class="org.springframework.kafka.core.KafkaTemplate">
		<constructor-arg ref="producerFactory" />
		<constructor-arg name="autoFlush" value="true" />
		<property name="defaultTopic" value="linlin" />
		<property name="producerListener" ref="producerListener" />
	</bean>
    <!-- 发送信息成功后的回调,producer的实际编码我们只需要实现ProducerListener接口然后注入到上面的KafkaTemplate即可 -->
	<bean id="producerListener" class="com.kafka.linstener.KafkaProducerListener" />
</beans>
 


然后是消费者配置文件:

<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
	xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:context="http://www.springframework.org/schema/context"
	xsi:schemaLocation="http://www.springframework.org/schema/beans
           http://www.springframework.org/schema/beans/spring-beans.xsd
           http://www.springframework.org/schema/context
           http://www.springframework.org/schema/context/spring-context.xsd">
    <!-- 消费者配置 -->
	<bean id="consumerProperties" class="java.util.HashMap">
		<constructor-arg>
			<map>
				<entry key="bootstrap.servers" value="localhost:9092" />
				<entry key="group.id" value="test" />
				<entry key="enable.auto.commit" value="false" />
				<entry key="auto.commit.interval.ms" value="1000" />
				<entry key="session.timeout.ms" value="15000" />
				<entry key="key.deserializer"
					value="org.apache.kafka.common.serialization.StringDeserializer" />
				<entry key="value.deserializer"
					value="org.apache.kafka.common.serialization.StringDeserializer" />
			</map>
		</constructor-arg>
	</bean>
     <!-- 消费者工厂用于生产KafkaConsumer对象 --> 
	<bean id="consumerFactory"
		class="org.springframework.kafka.core.DefaultKafkaConsumerFactory">
		<constructor-arg>
			<ref bean="consumerProperties" />
		</constructor-arg>
	</bean>
	<!-- 实际执行消息消费的类,业务逻辑都放在这里,实现MessageListener接口-->
	<bean id="messageListernerConsumerService" class="com.kafka.linstener.KafkaConsumerListener"/>
	
	 <!-- 消费者容器配置信息 -->
      <bean id="containerProperties_trade" class="org.springframework.kafka.listener.config.ContainerProperties">
          <constructor-arg value="linlin"/>
          <property name="messageListener" ref="messageListernerConsumerService"/>
      </bean>
     
      <bean id="messageListenerContainer_other" class="org.springframework.kafka.listener.KafkaMessageListenerContainer" 
          init-method="doStart">
          <constructor-arg ref="consumerFactory"/>
          <constructor-arg ref="containerProperties_trade"/>
      </bean>
</beans>


建立测试类:
@Component
public class KafkaServer {
	@Autowired
	private KafkaTemplate<String, String> kafkaTemplate;

	public void sendMessage(String topic, String key, Object value) {
		kafkaTemplate.setProducerListener(new KafkaProducerListener<String, String>());
		ListenableFuture<SendResult<String, String>> f = kafkaTemplate.send(topic, key, JSON.toJSONString(value));
		try {
			System.out.println(f.get().getProducerRecord().key());
			System.out.println(f.get().getProducerRecord().value());
		} catch (InterruptedException e) {
			e.printStackTrace();
		} catch (ExecutionException e) {
			e.printStackTrace();
		}
		System.out.println("发送了消息成功");

	}

	public static void main(String[] args) {
		ApplicationContext applicationContext = new FileSystemXmlApplicationContext("classpath:applicationContext.xml");
		KafkaServer server = (KafkaServer) applicationContext.getBean("kafkaServer");
		RoleBean bean = new RoleBean();
		bean.setDm("test");
		bean.setMc("测试2");
		server.sendMessage("linlin", "test", bean);
	}
}

public class KafkaConsumerListener<K, V> implements MessageListener<K, V>{

	@Override
	public void onMessage(ConsumerRecord<K, V> record) {
		System.out.println("消费 ——————————————————————————");
        System.out.println(record.key()); 
        System.out.println(record.value());
	}

}

public class KafkaProducerListener<K, V>  extends ProducerListenerAdapter<K, V> {

	@Override
	public void onSuccess(String topic, Integer partition, K key, V value, RecordMetadata recordMetadata) {
		System.out.println("topic___________________________"+topic);
		System.out.println("key______________________________"+key);
		System.out.println("value___________________________"+value);
		System.out.println("发送成功");
	}

	@Override
	public void onError(String topic, Integer partition, K key, V value, Exception exception) {
		System.out.println("发送失败");
	}

	@Override
	public boolean isInterestedInSuccess() {
		return true;
	}

}


分享到:
评论

相关推荐

    22.Spring Cloud整合RabbitMQ或Kafka消息驱动

    在Spring Cloud框架中,整合RabbitMQ或Kafka作为消息驱动是常见的微服务间通信方式。这两种技术都是流行的消息中间件,用于实现异步处理、解耦和扩展性。下面将详细阐述它们在Spring Cloud中的应用。 首先,...

    spring-kafka 整合官方文档

    spring-kafka是Spring框架对Apache Kafka消息系统进行整合的一个项目,它简化了Kafka的使用,使其更容易与Spring应用程序集成。Apache Kafka是一个分布式流处理平台,主要用于构建实时数据管道和流应用程序。它具备...

    kafka环境搭建并和spring整合

    ### Kafka环境搭建与Spring整合详解 #### 一、Kafka基本概念 Kafka是一款开源的分布式消息系统,它能够提供高吞吐量的数据管道和存储服务。为了更好地理解和使用Kafka,我们首先需要了解以下几个核心概念: 1. **...

    spring+kafka中间件整合

    spring整合kafka集群,init.properties配置kafka集群信息(也可以单个kafka服务),kafka-consumer.xml配置消费者监听,kafka-producer.xml配置消息生产者。

    spring kafka 整合

    标题中的“Spring Kafka 整合”指的是在Spring框架中集成Apache Kafka这一消息中间件的过程。Kafka是一个分布式的、基于发布/订阅的消息系统,而Spring Kafka则是Spring对Kafka的官方支持,允许开发者轻松地在Spring...

    Spring 集成 Kafka的配置文件及代码讲解

    在本文中,我们将深入探讨如何将Spring框架与Apache Kafka集成,以便实现在Spring应用中发送和接收消息。Kafka是一个高吞吐量、分布式的发布/订阅消息系统,而Spring框架是Java开发中最广泛使用的应用框架之一。通过...

    spring-kafka整合.docx

    Spring for Apache Kafka是Apache Kafka的一个Spring整合实现,旨在提供一个简洁、灵活的消息队列解决方案。下面是Spring for Apache Kafka的概述和关键特性: 概述 Spring for Apache Kafka是一个基于Apache Kafka...

    springboot - 2.7.3版本 - (八)ELK整合Kafka

    在本文中,我们将深入探讨如何在Spring Boot 2.7.3版本的项目中整合ELK(Elasticsearch、Logstash、Kafka)堆栈,以便实现高效且可扩展的日志管理和分析。ELK组合提供了实时日志收集、处理和搜索的能力,而Kafka作为...

    Kafka 与 Spring Boot 整合项目.zip

    2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; ...

    springboot - 2.7.3版本 - (七)整合Kafka

    在`springboot-kafka`目录下,可能包含了一个示例项目,你可以通过导入IDE进行编译和运行,以了解Spring Boot与Kafka集成的实践操作。 通过以上步骤,你已经掌握了如何在Spring Boot 2.7.3中集成Apache Kafka的基本...

    【基于xml方式】spring-kafka.zip

    当我们谈论"基于xml方式的Spring整合Kafka"时,意味着我们将使用XML配置文件来设置Spring与Kafka的集成。 Spring框架允许开发者通过XML配置来声明式地配置bean,包括数据源、事务管理器、以及与Kafka相关的消费者和...

    spring-boot集成kafka

    Spring for Apache Kafka提供了与Spring Boot整合的便利,通过引入`spring-kafka`和`spring-boot-starter`依赖,我们可以轻松地在Spring Boot应用中使用Kafka。添加以下依赖: ```xml &lt;groupId&gt;org.spring...

    Spirng整合Kafka的Demo

    Spring整合Kafka是一个常见的任务,尤其对于构建大数据流处理或者实时消息传递的系统至关重要。Spring框架提供了Spring Kafka模块,使得开发者能够轻松地在Java应用中集成Apache Kafka。在这个"Spring整合Kafka的...

    spring整合

    Spring整合还包括与消息队列的交互,如RabbitMQ或Kafka。Spring框架提供了Spring AMQP和Spring for Apache Kafka模块,使得处理异步任务和解耦系统成为可能。这些组件可以帮助开发者构建高度可扩展的应用,提高系统...

    springboot和kafka的集成

    在本文中,我们将深入探讨如何将Spring Boot框架与Apache Kafka进行集成,以便在微服务架构中实现高效的数据流处理。Apache Kafka是一个分布式流处理平台,它允许开发者构建实时数据管道和流应用程序。Spring Boot...

    springboot整合kafka的发布/消费demo项目源码

    在本文中,我们将深入探讨如何将Spring Boot与Apache Kafka整合,以便实现发布/消费消息队列模式。Apache Kafka是一款高效、可扩展且分布式的消息中间件,而Spring Boot则是一个简化了Spring应用程序开发的框架。...

    Kafka3.0详解,客户端命令,核心配置文件详解。spring集成、webflux集成、集群搭建

    它的客户端命令以及核心配置文件是其操作的核心,而spring集成和webflux集成则可以将Kafka3.0与主流的Java开发框架相结合,集群搭建则是其分布式特性的基础。 消息系统是一种应用程序,用于在不同的软件组件之间...

    spring整合kafka注解和xml两种方式

    根据项目需求和个人偏好,可以选择适合自己的方式来实现Spring与Kafka的整合。在提供的压缩包`spring-kafka5.2.8-注解.zip`和`spring-kafka5.28-xml.zip`中,包含了这两种方式的示例代码,供学习和参考。

    spring-kafka

    Spring Kafka 是一个由 Spring 社区开发的库,它为 Apache Kafka 提供了轻量级的、基于 Spring 的整合框架。Kafka 是一个分布式流处理平台,常用于构建实时数据管道和流应用。Spring Kafka 的设计目标是简化与 Kafka...

Global site tag (gtag.js) - Google Analytics