首先导入两个包:
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka-clients</artifactId>
<version>0.10.0.0</version>
</dependency>
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
<version>1.0.5.RELEASE</version>
</dependency>
一个kafkaClient包,一个spring整合包。
然后建立生产者配置文件:
kafka_producer.xml
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:context="http://www.springframework.org/schema/context"
xsi:schemaLocation="http://www.springframework.org/schema/beans
http://www.springframework.org/schema/beans/spring-beans.xsd
http://www.springframework.org/schema/context
http://www.springframework.org/schema/context/spring-context.xsd">
<!-- kafkaProducer的配置文件 -->
<bean id="producerProperties" class="java.util.HashMap">
<constructor-arg>
<map>
<entry key="bootstrap.servers" value="localhost:9092" />
<entry key="group.id" value="test" />
<entry key="retries" value="1" />
<entry key="batch.size" value="16384" />
<entry key="linger.ms" value="1" />
<entry key="buffer.memory" value="33554432" />
<entry key="key.serializer"
value="org.apache.kafka.common.serialization.StringSerializer" />
<entry key="value.serializer"
value="org.apache.kafka.common.serialization.StringSerializer" />
</map>
</constructor-arg>
</bean>
<!-- 生成 KafkaProducer对象-->
<bean id="producerFactory"
class="org.springframework.kafka.core.DefaultKafkaProducerFactory">
<constructor-arg>
<ref bean="producerProperties" />
</constructor-arg>
</bean>
<!-- 用于发送信息 -->
<bean id="kafkaTemplate" class="org.springframework.kafka.core.KafkaTemplate">
<constructor-arg ref="producerFactory" />
<constructor-arg name="autoFlush" value="true" />
<property name="defaultTopic" value="linlin" />
<property name="producerListener" ref="producerListener" />
</bean>
<!-- 发送信息成功后的回调,producer的实际编码我们只需要实现ProducerListener接口然后注入到上面的KafkaTemplate即可 -->
<bean id="producerListener" class="com.kafka.linstener.KafkaProducerListener" />
</beans>
然后是消费者配置文件:
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:context="http://www.springframework.org/schema/context"
xsi:schemaLocation="http://www.springframework.org/schema/beans
http://www.springframework.org/schema/beans/spring-beans.xsd
http://www.springframework.org/schema/context
http://www.springframework.org/schema/context/spring-context.xsd">
<!-- 消费者配置 -->
<bean id="consumerProperties" class="java.util.HashMap">
<constructor-arg>
<map>
<entry key="bootstrap.servers" value="localhost:9092" />
<entry key="group.id" value="test" />
<entry key="enable.auto.commit" value="false" />
<entry key="auto.commit.interval.ms" value="1000" />
<entry key="session.timeout.ms" value="15000" />
<entry key="key.deserializer"
value="org.apache.kafka.common.serialization.StringDeserializer" />
<entry key="value.deserializer"
value="org.apache.kafka.common.serialization.StringDeserializer" />
</map>
</constructor-arg>
</bean>
<!-- 消费者工厂用于生产KafkaConsumer对象 -->
<bean id="consumerFactory"
class="org.springframework.kafka.core.DefaultKafkaConsumerFactory">
<constructor-arg>
<ref bean="consumerProperties" />
</constructor-arg>
</bean>
<!-- 实际执行消息消费的类,业务逻辑都放在这里,实现MessageListener接口-->
<bean id="messageListernerConsumerService" class="com.kafka.linstener.KafkaConsumerListener"/>
<!-- 消费者容器配置信息 -->
<bean id="containerProperties_trade" class="org.springframework.kafka.listener.config.ContainerProperties">
<constructor-arg value="linlin"/>
<property name="messageListener" ref="messageListernerConsumerService"/>
</bean>
<bean id="messageListenerContainer_other" class="org.springframework.kafka.listener.KafkaMessageListenerContainer"
init-method="doStart">
<constructor-arg ref="consumerFactory"/>
<constructor-arg ref="containerProperties_trade"/>
</bean>
</beans>
建立测试类:
@Component
public class KafkaServer {
@Autowired
private KafkaTemplate<String, String> kafkaTemplate;
public void sendMessage(String topic, String key, Object value) {
kafkaTemplate.setProducerListener(new KafkaProducerListener<String, String>());
ListenableFuture<SendResult<String, String>> f = kafkaTemplate.send(topic, key, JSON.toJSONString(value));
try {
System.out.println(f.get().getProducerRecord().key());
System.out.println(f.get().getProducerRecord().value());
} catch (InterruptedException e) {
e.printStackTrace();
} catch (ExecutionException e) {
e.printStackTrace();
}
System.out.println("发送了消息成功");
}
public static void main(String[] args) {
ApplicationContext applicationContext = new FileSystemXmlApplicationContext("classpath:applicationContext.xml");
KafkaServer server = (KafkaServer) applicationContext.getBean("kafkaServer");
RoleBean bean = new RoleBean();
bean.setDm("test");
bean.setMc("测试2");
server.sendMessage("linlin", "test", bean);
}
}
public class KafkaConsumerListener<K, V> implements MessageListener<K, V>{
@Override
public void onMessage(ConsumerRecord<K, V> record) {
System.out.println("消费 ——————————————————————————");
System.out.println(record.key());
System.out.println(record.value());
}
}
public class KafkaProducerListener<K, V> extends ProducerListenerAdapter<K, V> {
@Override
public void onSuccess(String topic, Integer partition, K key, V value, RecordMetadata recordMetadata) {
System.out.println("topic___________________________"+topic);
System.out.println("key______________________________"+key);
System.out.println("value___________________________"+value);
System.out.println("发送成功");
}
@Override
public void onError(String topic, Integer partition, K key, V value, Exception exception) {
System.out.println("发送失败");
}
@Override
public boolean isInterestedInSuccess() {
return true;
}
}
分享到:
相关推荐
在Spring Cloud框架中,整合RabbitMQ或Kafka作为消息驱动是常见的微服务间通信方式。这两种技术都是流行的消息中间件,用于实现异步处理、解耦和扩展性。下面将详细阐述它们在Spring Cloud中的应用。 首先,...
spring-kafka是Spring框架对Apache Kafka消息系统进行整合的一个项目,它简化了Kafka的使用,使其更容易与Spring应用程序集成。Apache Kafka是一个分布式流处理平台,主要用于构建实时数据管道和流应用程序。它具备...
### Kafka环境搭建与Spring整合详解 #### 一、Kafka基本概念 Kafka是一款开源的分布式消息系统,它能够提供高吞吐量的数据管道和存储服务。为了更好地理解和使用Kafka,我们首先需要了解以下几个核心概念: 1. **...
spring整合kafka集群,init.properties配置kafka集群信息(也可以单个kafka服务),kafka-consumer.xml配置消费者监听,kafka-producer.xml配置消息生产者。
标题中的“Spring Kafka 整合”指的是在Spring框架中集成Apache Kafka这一消息中间件的过程。Kafka是一个分布式的、基于发布/订阅的消息系统,而Spring Kafka则是Spring对Kafka的官方支持,允许开发者轻松地在Spring...
在本文中,我们将深入探讨如何将Spring框架与Apache Kafka集成,以便实现在Spring应用中发送和接收消息。Kafka是一个高吞吐量、分布式的发布/订阅消息系统,而Spring框架是Java开发中最广泛使用的应用框架之一。通过...
Spring for Apache Kafka是Apache Kafka的一个Spring整合实现,旨在提供一个简洁、灵活的消息队列解决方案。下面是Spring for Apache Kafka的概述和关键特性: 概述 Spring for Apache Kafka是一个基于Apache Kafka...
在`springboot-kafka`目录下,可能包含了一个示例项目,你可以通过导入IDE进行编译和运行,以了解Spring Boot与Kafka集成的实践操作。 通过以上步骤,你已经掌握了如何在Spring Boot 2.7.3中集成Apache Kafka的基本...
在本文中,我们将深入探讨如何在Spring Boot 2.7.3版本的项目中整合ELK(Elasticsearch、Logstash、Kafka)堆栈,以便实现高效且可扩展的日志管理和分析。ELK组合提供了实时日志收集、处理和搜索的能力,而Kafka作为...
2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; ...
当我们谈论"基于xml方式的Spring整合Kafka"时,意味着我们将使用XML配置文件来设置Spring与Kafka的集成。 Spring框架允许开发者通过XML配置来声明式地配置bean,包括数据源、事务管理器、以及与Kafka相关的消费者和...
Spring for Apache Kafka提供了与Spring Boot整合的便利,通过引入`spring-kafka`和`spring-boot-starter`依赖,我们可以轻松地在Spring Boot应用中使用Kafka。添加以下依赖: ```xml <groupId>org.spring...
Spring整合Kafka是一个常见的任务,尤其对于构建大数据流处理或者实时消息传递的系统至关重要。Spring框架提供了Spring Kafka模块,使得开发者能够轻松地在Java应用中集成Apache Kafka。在这个"Spring整合Kafka的...
Spring整合还包括与消息队列的交互,如RabbitMQ或Kafka。Spring框架提供了Spring AMQP和Spring for Apache Kafka模块,使得处理异步任务和解耦系统成为可能。这些组件可以帮助开发者构建高度可扩展的应用,提高系统...
在本文中,我们将深入探讨如何将Spring Boot框架与Apache Kafka进行集成,以便在微服务架构中实现高效的数据流处理。Apache Kafka是一个分布式流处理平台,它允许开发者构建实时数据管道和流应用程序。Spring Boot...
在本文中,我们将深入探讨如何将Spring Boot与Apache Kafka整合,以便实现发布/消费消息队列模式。Apache Kafka是一款高效、可扩展且分布式的消息中间件,而Spring Boot则是一个简化了Spring应用程序开发的框架。...
它的客户端命令以及核心配置文件是其操作的核心,而spring集成和webflux集成则可以将Kafka3.0与主流的Java开发框架相结合,集群搭建则是其分布式特性的基础。 消息系统是一种应用程序,用于在不同的软件组件之间...
根据项目需求和个人偏好,可以选择适合自己的方式来实现Spring与Kafka的整合。在提供的压缩包`spring-kafka5.2.8-注解.zip`和`spring-kafka5.28-xml.zip`中,包含了这两种方式的示例代码,供学习和参考。
Spring Kafka 是一个由 Spring 社区开发的库,它为 Apache Kafka 提供了轻量级的、基于 Spring 的整合框架。Kafka 是一个分布式流处理平台,常用于构建实时数据管道和流应用。Spring Kafka 的设计目标是简化与 Kafka...