`
Taylorshirley
  • 浏览: 10212 次
  • 性别: Icon_minigender_2
  • 来自: 上海
社区版块
存档分类
最新评论

Zookeeper、Kafka分布式集成

 
阅读更多

Honghu的消息服务平台已经抛弃了之前的ActiveMQ,改用高吞吐量比较大的Kafka分布式消息中间件方案:
kafka消息平台使用spring+kafka的集成方案,详情如下:
1. 使用最高版本2.1.0.RELEASE集成jar包:spring-integration-kafka


2. Zookeeper、Kafka分布式集群使用init.properties配置化方案。

kafka.servers=127.0.0.1:9092    
kafka.topic=xxxooo  

 3. 使用消息生产者spring-context-producer配置化方案。、

<?xml version="1.0" encoding="UTF-8"?>    
<beans xmlns="http://www.springframework.org/schema/beans"    
     xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"    
     xmlns:context="http://www.springframework.org/schema/context"    
     xsi:schemaLocation="http://www.springframework.org/schema/beans    
         http://www.springframework.org/schema/beans/spring-beans.xsd    
         http://www.springframework.org/schema/context    
         http://www.springframework.org/schema/context/spring-context.xsd">   
  
  
    <!-- 定义producer的参数 -->  
    <bean id="producerProperties" class="java.util.HashMap">  
        <constructor-arg>  
            <map>  
                <entry key="bootstrap.servers" value="localhost:9092" />  
                <entry key="group.id" value="2" />  
                <entry key="retries" value="10" />  
                <entry key="batch.size" value="16384" />  
                <entry key="linger.ms" value="1" />  
                <entry key="buffer.memory" value="33554432" />  
                <entry key="key.serializer"  
                    value="org.apache.kafka.common.serialization.IntegerSerializer" />  
                <entry key="value.serializer"  
                    value="org.apache.kafka.common.serialization.StringSerializer" />  
            </map>  
        </constructor-arg>  
    </bean>  
  
    <!-- 创建kafkatemplate需要使用的producerfactory bean -->  
    <bean id="producerFactory"  
        class="org.springframework.kafka.core.DefaultKafkaProducerFactory">  
        <constructor-arg>  
            <ref bean="producerProperties" />  
        </constructor-arg>  
    </bean>  
  
    <!-- 创建kafkatemplate bean,使用的时候,只需要注入这个bean,即可使用template的send消息方法 -->  
    <bean id="KafkaTemplate" class="org.springframework.kafka.core.KafkaTemplate">  
        <constructor-arg ref="producerFactory" />  
        <constructor-arg name="autoFlush" value="true" />  
        <property name="defaultTopic" value="test" />  
    </bean>  
</beans>  

 4. 使用消息消费者spring-context-producer配置化方案。

<?xml version="1.0" encoding="UTF-8"?>    
<beans xmlns="http://www.springframework.org/schema/beans"    
     xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"    
     xmlns:context="http://www.springframework.org/schema/context"    
     xsi:schemaLocation="http://www.springframework.org/schema/beans    
         http://www.springframework.org/schema/beans/spring-beans.xsd    
         http://www.springframework.org/schema/context    
         http://www.springframework.org/schema/context/spring-context.xsd">   
  
  
    <!-- 定义consumer的参数 -->  
    <bean id="consumerProperties" class="java.util.HashMap">  
        <constructor-arg>  
            <map>  
                <entry key="bootstrap.servers" value="localhost:9092" />  
                <entry key="group.id" value="0" />  
                <entry key="enable.auto.commit" value="true" />  
                <entry key="auto.commit.interval.ms" value="1000" />  
                <entry key="session.timeout.ms" value="15000" />  
                <entry key="key.deserializer"  
                    value="org.apache.kafka.common.serialization.IntegerDeserializer" />  
                <entry key="value.deserializer"  
                    value="org.apache.kafka.common.serialization.StringDeserializer" />  
            </map>  
        </constructor-arg>  
    </bean>  
  
    <!-- 创建consumerFactory bean -->  
    <bean id="consumerFactory"  
        class="org.springframework.kafka.core.DefaultKafkaConsumerFactory">  
        <constructor-arg>  
            <ref bean="consumerProperties" />  
        </constructor-arg>  
    </bean>  
  
    <!-- 实际执行消息消费的类 -->  
    <bean id="messageListernerConsumerService" class="com.sml.sz.kafka.KafKaConsumer" />  
  
    <!-- 消费者容器配置信息 -->  
    <bean id="containerProperties"  
        class="org.springframework.kafka.listener.config.ContainerProperties">  
        <constructor-arg value="test" />  
        <property name="messageListener" ref="messageListernerConsumerService" />  
    </bean>  
  
    <!-- 创建kafkatemplate bean,使用的时候,只需要注入这个bean,即可使用template的send消息方法 -->  
    <bean id="messageListenerContainer"  
        class="org.springframework.kafka.listener.KafkaMessageListenerContainer"  
        init-method="doStart">  
        <constructor-arg ref="consumerFactory" />  
        <constructor-arg ref="containerProperties" />  
    </bean>  
</beans>    

 5. 使用注解方式注入消息类型

@Autowired  
private KafkaTemplate<xxx, ooo> kafkaTemplate;

6. 重写MessageListener 的getMessage方法获取消息(业务实现)

7. RestFul服务方式测试消息服务
@CrossOrigin(origins = "*", maxAge = 3600, methods = { RequestMethod.GET, RequestMethod.POST, RequestMethod.DELETE,  
        RequestMethod.PUT })  
@RestController  
@RequestMapping(value = "/rest/kafka")  
public class KafKaProducer {  
      
    @RequestMapping(value = "/send", method = RequestMethod.GET)  
    public JSONObject save() {  
        System.out.println("+++++++++++++++++++++++++++++++");  
        kafkaTemplate.sendDefault("HongHu KAFKA分布式消息服务测试");    
        return null;  
    }  
      
    @Autowired    
    private KafkaTemplate<Integer, String> kafkaTemplate;  
      
    
  
}  
 
@RestController  
public class KafKaConsumer implements MessageListener<Integer, String> {  
  
    @Autowired  
    private LogService logService;  
    public void onMessage(ConsumerRecord<Integer, String> records) {  
        System.out.println("====================" + records);  
        Object o = records.value();  
        Log log = new Log();  
        log.setIsNewRecord(true);  
        log.setId(IdGen.uuid());  
        log.setTitle(String.valueOf(o));  
        logService.save(log);  
  
    }  
  
}  
 接受消息了------------------:ConsumerRecord(topic = xxxooo, partition = 0, offset = 2489, CreateTime = 1479647648299, checksum = 3372898135, serialized key size = -1, serialized value size = 40, key = null, value = HongHu KAFKA分布式消息服务测试)
 
到此结束!
 

核心架构:Spring Cloud、Spring Boot、Mybatis、Redis、Rabbit MQ、微服务、分布式、电子商务

核心思想:产品微服务、模块化、原子化、持续集成、分布式、集群部署

开发模式:代码生成工具、驱动式开发模式、提高开发效率

(企业架构源码可以加求球:三五三六二四七二五九)

分享到:
评论

相关推荐

    KAFKA分布式消息系统(window)

    **KAFKA分布式消息系统在Windows环境下的搭建与应用** KAFKA是一个高吞吐量的分布式消息系统,由LinkedIn开发并开源,现在是Apache软件基金会的顶级项目。它主要设计用于处理实时流数据,允许应用程序发布和订阅...

    ZooKeeper-分布式过程协同技术详解 PDF 高清完整版

    第三部分“实战ZooKeeper”涵盖了第八章至第十章,主要探讨了Zookeeper在实际应用中的部署、运维和调优,以及如何与其他开源项目(如Hadoop、HBase、Kafka等)集成。这部分内容有助于读者将理论知识转化为实际操作...

    zookeeper, 分布式系统服务ZooKeeper的学习历程.zip

    七、ZooKeeper与其他分布式框架的集成 ZooKeeper常被用于Hadoop、HBase、Kafka等大数据处理框架中,作为它们的协调中心,确保服务的稳定性和数据一致性。 总结: ZooKeeper作为分布式系统的核心组件,其强大的协调...

    zookeeper之分布式环境搭建.zip

    在IT行业中,ZooKeeper...不过,要真正掌握Zookeeper,还需要进一步深入研究它的高级特性,如Watcher机制、事务操作以及与其他分布式系统的集成策略。在实践中不断探索,才能更好地利用Zookeeper解决实际的分布式问题。

    kafka2.4.0+zookeeper+kafka-connect集成环境包

    标题中的“kafka2.4.0+zookeeper+kafka-connect集成环境包”指的是一个包含了Apache Kafka 2.4.0版本、ZooKeeper以及Kafka Connect的完整集成环境。这个安装包是为了方便用户一次性安装和配置这三个关键组件,用于...

    java zookeeper kafka 日志处理

    在日志处理系统中,Kafka可以与其他工具如Logstash或Flume集成,进行日志数据的清洗、解析和结构化。之后,这些预处理的日志数据可以被送入MySQL数据库进行持久化存储。MySQL是一种广泛使用的开源关系型数据库管理...

    从PAXOS到ZOOKEEPER分布式一致性原理与实践

    在实践中,ZOOKEEPER的应用广泛,例如在Hadoop、Kafka、HBase等大数据和流处理框架中都扮演着核心角色。它帮助这些系统解决了诸如集群成员管理、任务调度、状态同步等问题。ZOOKEEPER的API设计简洁,使得开发者可以...

    kafka分布式发布订阅消息系统 v2.6.3.tgz

    《Kafka分布式发布订阅消息系统 v2.6.3 深度解析》 Apache Kafka是一款高吞吐、低延迟的分布式发布订阅消息系统,它最初由LinkedIn开发,并于2011年开源,后来成为了Apache顶级项目。Kafka v2.6.3是其稳定且功能...

    spring+zookeeper+kafka

    Zookeeper和Kafka则是大数据领域的两个重要组件,分别用于分布式协调和服务管理以及高吞吐量的消息传递。本文将深入探讨如何整合Spring、Zookeeper和Kafka,构建一个高效、可靠的分布式系统。 首先,让我们关注...

    zookeeper linux集群搭建流程

    ZooKeeper 是一个广泛使用的分布式协调服务,主要用于管理和协调分布式系统中的各个节点。Linux 集群搭建是 ZooKeeper 的一种常见应用场景,本文将详细介绍 ZooKeeper Linux 集群搭建流程。 准备前提 在开始搭建 ...

    分布式消息系统Kafka项目-生产者消费者代码实现(基于5台虚拟机完全分布式)

    1. **完全分布式部署**:在5台虚拟机上设置Kafka集群,我们需要配置每台机器上的`server.properties`文件,确保正确的broker ID(节点标识)和zookeeper连接字符串。同时,为了实现高可用性,需要配置副本因子和分区...

    徐老师大数据培训Hadoop+HBase+ZooKeeper+Spark+Kafka+Scala+Ambari

    根据提供的标题、描述、标签及部分内容链接,我们可以推断出这是一个关于大数据技术栈的培训课程,涉及的技术包括Hadoop、HBase、Zookeeper、Spark、Kafka、Scala以及Ambari。下面将针对这些技术进行详细的介绍和...

    Kafka与spring集成

    Kafka分布式消息系统是一种高吞吐量、可扩展、基于发布订阅模式的消息系统,广泛应用于大数据处理、实时数据处理和日志处理等领域。Spring Framework是一种流行的Java应用程序框架,提供了一个广泛的编程模型和配置...

    kafka-0.10.2.1 + zookeeper-3.4.9.zip

    《Kafka 0.10.2.1与Zookeeper 3.4.9:分布式消息系统的基石》 在分布式系统领域,Kafka和Zookeeper是两个不可或缺的组件。Kafka是一个高性能、可扩展的开源流处理平台,而Zookeeper则是一个分布式的协调服务,它们...

    c# 解压,frp,kafka,zookeeper集成

    总的来说,这个集成项目将C#的Winform应用与后台的解压操作、FRP理念、Kafka的消息队列和Zookeeper的分布式协调相结合,旨在构建一个高效、稳定且可扩展的系统。为了实现这一目标,你需要掌握多线程编程、事件驱动、...

    kafka+zookeeper

    集成Kafka与Zookeeper时,首先需要确保Zookeeper集群的正常运行。然后在Kafka的配置文件`config/server.properties`中,设置`zookeeper.connect`参数为Zookeeper集群的连接字符串,这样Kafka就能与Zookeeper进行通信...

    zookeeper+kafka

    在实际应用中,掌握Zookeeper和Kafka的集成使用技巧,可以解决许多分布式系统中的常见问题,如数据一致性、容错性、扩展性和性能优化等。通过不断实践和探索,我们可以将这两个强大的工具灵活应用于各种复杂场景,...

    zookeeper-3.4.9.zip

    五、Zookeeper与Kafka的集成 在Kafka的配置中,需要指定Zookeeper的连接地址,使得Kafka能与Zookeeper通信。同时,需要在Zookeeper中创建Kafka的命名空间,以便Kafka能够正确地读写元数据。 总的来说,Zookeeper ...

    kafka+zookeeper.zip

    Apache Kafka是一个分布式流处理平台,而Zookeeper是一个分布式协调服务,两者在大数据生态系统中扮演着至关重要的角色。 Kafka是一个开源的流处理平台,由LinkedIn开发并贡献给Apache软件基金会。它最初设计为一个...

    zookeeper-3.4.8+kafka-2.12-1.0.tar.gz

    这个文件很可能是一个集成的打包,将两个重要的分布式系统组件——Zookeeper和Kafka整合在一起,方便用户部署和管理。 Zookeeper是Apache的一个开源项目,主要功能是提供分布式环境下的命名服务、配置管理、集群...

Global site tag (gtag.js) - Google Analytics