`
wh0426
  • 浏览: 56297 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
博客专栏
Group-logo
架构师的知识与实践
浏览量:56298
社区版块
存档分类
最新评论

社区电商系统架构之消息队列篇:kafka的实验

阅读更多

1.kafka安装

tar -xzf kafka_2.10-0.8.2.1.tgz
cd kafka_2.10-0.8.2.1

 

2.启动

主机环境
top - 11:32:15 up 118 days, 8:18, 4 users, load average: 1.97, 3.45, 4.45
Tasks: 152 total, 1 running, 151 sleeping, 0 stopped, 0 zombie
Cpu0 : 15.0%us, 13.0%sy, 0.0%ni, 68.0%id, 3.0%wa, 0.0%hi, 1.0%si, 0.0%st
Cpu1 : 26.2%us, 15.0%sy, 0.0%ni, 56.8%id, 0.0%wa, 0.0%hi, 2.0%si, 0.0%st
Cpu2 : 62.7%us, 13.7%sy, 0.0%ni, 18.3%id, 0.0%wa, 0.0%hi, 5.3%si, 0.0%st
Cpu3 : 16.6%us, 14.0%sy, 0.0%ni, 66.1%id, 2.7%wa, 0.0%hi, 0.7%si, 0.0%st
 
 
启动kafka zookeeper进程
bin/zookeeper-server-start.sh config/zookeeper.properties &
 
启动leader
bin/kafka-server-start.sh config/server.properties &
启动follower 1
bin/kafka-server-start.sh config/server-1.properties &
启动follower 2
bin/kafka-server-start.sh config/server-2.properties &
 

3.实验准备

1.创建kafka主题队列
bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic page_visits1

2.查看Kafka主题队列是否加入数据
bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic page_visits1 --from-beginning

4.常见异常

解决FailedToSendMessageException问题。
kafka.common.FailedToSendMessageException: Failed to send messages after 3 tries.
at kafka.producer.async.DefaultEventHandler.handle(DefaultEventHandler.scala:90)
修改config/server.properties中 host.name=主机地址

5.写入主题消息

TestProducer
package kafka.client;


import java.util.*;


import kafka.javaapi.producer.Producer;
import kafka.producer.KeyedMessage;
import kafka.producer.ProducerConfig;

public class TestProducer {
  public static void main(String[] args) {
    long events = 1000000;
    Random rnd = new Random();

    Properties props = new Properties();
    //props.put("zk.connect", "192.168.161.73:2181");
    props.put("metadata.broker.list", "192.168.161.73:9092");
    props.put("serializer.class", "kafka.serializer.StringEncoder");
   // props.put("zookeeper.session.timeout.ms", "400000");
    props.put("partitioner.class", "kafka.client.SimplePartitioner");
    //props.put("request.required.acks", "1");

    ProducerConfig config = new ProducerConfig(props);

    Producer<String, String> producer = new Producer<String, String>(config);

    long begin= System.currentTimeMillis();
    for (long nEvents = 0; nEvents < events; nEvents++) {
       long runtime = new Date().getTime(); 
       String ip = "192.168.2." + rnd.nextInt(255);
       String msg = runtime + ",www.example.com," + ip;
       KeyedMessage<String, String> data = new KeyedMessage<String, String>("page_visits1", runtime+"",ip, msg);
       producer.send(data);
    }
    long end= System.currentTimeMillis();
    System.out.println("cost time:"+(end-begin));
    producer.close();
  }
}


6.消费主题消息

SimplePartitioner 可选
package kafka.client;
import kafka.producer.Partitioner;
import kafka.utils.VerifiableProperties;
 
public class SimplePartitioner implements Partitioner {
    public SimplePartitioner (VerifiableProperties props) {
 
    }
 
    public int partition(Object key, int a_numPartitions) {
        int partition = 0;
        String stringKey = (String) key;
        int offset = stringKey.lastIndexOf('.');
        if (offset > 0) {
           partition = Integer.parseInt( stringKey.substring(offset+1)) % a_numPartitions;
        }
       return partition;
  }
 
}

ConsumerGroupExample
package kafka.client;
import kafka.consumer.ConsumerConfig;
import kafka.consumer.KafkaStream;
import kafka.javaapi.consumer.ConsumerConnector;
 

import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Properties;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
import java.util.concurrent.TimeUnit;
 
public class ConsumerGroupExample {
    private final ConsumerConnector consumer;
    private final String topic;
    private  ExecutorService executor;
 
    public ConsumerGroupExample(String a_zookeeper, String a_groupId, String a_topic) {
        consumer = kafka.consumer.Consumer.createJavaConsumerConnector(
                createConsumerConfig(a_zookeeper, a_groupId));
        this.topic = a_topic;
    }
 
    public void shutdown() {
        if (consumer != null) consumer.shutdown();
        if (executor != null) executor.shutdown();
        try {
            if (!executor.awaitTermination(5000, TimeUnit.MILLISECONDS)) {
                System.out.println("Timed out waiting for consumer threads to shut down, exiting uncleanly");
            }
        } catch (InterruptedException e) {
            System.out.println("Interrupted during shutdown, exiting uncleanly");
        }
   }
 
    public void run(int a_numThreads) {
        Map<String, Integer> topicCountMap = new HashMap<String, Integer>();
        topicCountMap.put(topic, new Integer(a_numThreads));
        Map<String, List<KafkaStream<byte[], byte[]>>> consumerMap = consumer.createMessageStreams(topicCountMap);
        List<KafkaStream<byte[], byte[]>> streams = consumerMap.get(topic);
        
        // now launch all the threads
        //
        executor = Executors.newFixedThreadPool(a_numThreads);
 
        // now create an object to consume the messages
        //
        int threadNumber = 0;
        for (final KafkaStream stream : streams) {
            executor.submit(new ConsumerTest(stream, threadNumber));
            threadNumber++;
        }
    }
 
    private static ConsumerConfig createConsumerConfig(String a_zookeeper, String a_groupId) {
        Properties props = new Properties();
        props.put("zookeeper.connect", a_zookeeper);
        props.put("group.id", a_groupId);
        props.put("zookeeper.session.timeout.ms", "400");
        props.put("zookeeper.sync.time.ms", "200");
        props.put("auto.commit.interval.ms", "1000");
 
        return new ConsumerConfig(props);
    }
 
    public static void main(String[] args) {
        String zooKeeper = "192.168.161.73:2181";
        String groupId = "testgroup";
        String topic = "page_visits1";
        int threads = Integer.parseInt("10");
 
        ConsumerGroupExample example = new ConsumerGroupExample(zooKeeper, groupId, topic);
        example.run(threads);
 
        try {
            Thread.sleep(10000);
        } catch (InterruptedException ie) {
 
        }
        example.shutdown();
    }
}
ConsumerTest
 
package kafka.client;


import java.util.concurrent.Callable;


import kafka.consumer.ConsumerIterator;
import kafka.consumer.KafkaStream;

public class ConsumerTest implements Runnable {
  private KafkaStream m_stream;
  private int m_threadNumber;

  public ConsumerTest(KafkaStream a_stream, int a_threadNumber) {
    m_threadNumber = a_threadNumber;
    m_stream = a_stream;
  }

  public void run() {
      long begin= System.currentTimeMillis();
    ConsumerIterator<byte[], byte[]> it = m_stream.iterator();
    System.out.println( "stream.iterator cost time="+(begin-begin));
   // int s= m_stream.size();
    long begin1= System.currentTimeMillis();
    int s=0;
    String val="";
    while (it.hasNext()){
     val=String.valueOf(it.next().message());
    if(s%10000==0) {
       System.out.println("Thread " + m_threadNumber + ": "+val );}
      s++;
    }
   
    System.out.println("Shutting down Thread: " + m_threadNumber);
    long end= System.currentTimeMillis();
    System.out.println("thread "+m_threadNumber+ " cost time="+(end-begin)+",queue counter="+s);
  }
}

7.测试

1.运行TestProducer,向page_visits1主题发布消息。
第一次运行
./run-producter.sh
[INFO] starting ...
SERVER_HOME=/root/kafka-test
-Xms2048M -Xmx2048M -XX:MaxPermSize=1024M -XX:PermSize=512M -XX:+UseG1GC
BOOTCMD=java -cp /root/kafka-test/conf:/root/kafka-test/lib:/root/kafka-test/lib/* kafka.client.TestProducer
java -cp /root/kafka-test/conf:/root/kafka-test/lib:/root/kafka-test/lib/* kafka.client.TestProducer
log4j:WARN No appenders could be found for logger (kafka.utils.VerifiableProperties).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
cost time:150936 。即150秒.
 
第二次运行:
 
./run-producter.sh
[INFO] starting ...
SERVER_HOME=/root/kafka-test
-Xms2048M -Xmx2048M -XX:MaxPermSize=1024M -XX:PermSize=512M -XX:+UseG1GC
BOOTCMD=java -cp /root/kafka-test/conf:/root/kafka-test/lib:/root/kafka-test/lib/* kafka.client.TestProducer
java -cp /root/kafka-test/conf:/root/kafka-test/lib:/root/kafka-test/lib/* kafka.client.TestProducer
log4j:WARN No appenders could be found for logger (kafka.utils.VerifiableProperties).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
cost time:149937。即149秒,
 
2.运行ConsumerGroupExample,消息page_visits1主题消息
第一次运行:
./run-consumer.sh
[INFO] starting ...
SERVER_HOME=/root/kafka-test
-Xms2048M -Xmx2048M -XX:MaxPermSize=1024M -XX:PermSize=512M -XX:+UseG1GC
BOOTCMD=java -cp /root/kafka-test/conf:/root/kafka-test/lib:/root/kafka-test/lib/* kafka.client.ConsumerGroupExample
java -cp /root/kafka-test/conf:/root/kafka-test/lib:/root/kafka-test/lib/* kafka.client.ConsumerGroupExample
log4j:WARN No appenders could be found for logger (kafka.utils.VerifiableProperties).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Shutting down Thread: 9
thread 9 cost time=10029,queue counter=98576
Shutting down Thread: 4
thread 4 cost time=10045,queue counter=97970
Shutting down Thread: 0
thread 0 cost time=10048,queue counter=101707
Shutting down Thread: 8
thread 8 cost time=10030,queue counter=101870
Shutting down Thread: 1
thread 1 cost time=10048,queue counter=97799
Shutting down Thread: 7
thread 7 cost time=10038,queue counter=97865
Shutting down Thread: 5
Shutting down Thread: 6
thread 5 cost time=10038,queue counter=102579
Shutting down Thread: 2
thread 2 cost time=10047,queue counter=102181
thread 6 cost time=10045,queue counter=97463
Shutting down Thread: 3
thread 3 cost time=10047,queue counter=101990
 
top - 11:36:04 up 118 days, 8:22, 4 users, load average: 0.80, 2.21, 3.76
Tasks: 151 total, 1 running, 150 sleeping, 0 stopped, 0 zombie
Cpu0 : 13.3%us, 46.7%sy, 0.0%ni, 40.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu1 : 16.2%us, 36.8%sy, 0.0%ni, 47.1%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu2 : 17.3%us, 37.3%sy, 0.0%ni, 44.0%id, 0.0%wa, 0.0%hi, 1.3%si, 0.0%st
Cpu3 : 15.3%us, 37.5%sy, 0.0%ni, 44.4%id, 0.0%wa, 0.0%hi, 2.8%si, 0.0%st
 
完成所有消息消费,约100秒钟
 
 
第二次运行:
./run-consumer.sh
[INFO] starting ...
SERVER_HOME=/root/kafka-test
-Xms2048M -Xmx2048M -XX:MaxPermSize=1024M -XX:PermSize=512M -XX:+UseG1GC
BOOTCMD=java -cp /root/kafka-test/conf:/root/kafka-test/lib:/root/kafka-test/lib/* kafka.client.ConsumerGroupExample
java -cp /root/kafka-test/conf:/root/kafka-test/lib:/root/kafka-test/lib/* kafka.client.ConsumerGroupExample
log4j:WARN No appenders could be found for logger (kafka.utils.VerifiableProperties).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Shutting down Thread: 9
Shutting down Thread: 1
thread 9 cost time=10026,queue counter=0
Shutting down Thread: 4
Shutting down Thread: 0
Shutting down Thread: 8
thread 0 cost time=10037,queue counter=0
thread 4 cost time=10028,queue counter=0
Shutting down Thread: 7
thread 7 cost time=10027,queue counter=0
thread 1 cost time=10027,queue counter=0
thread 8 cost time=10027,queue counter=0
Shutting down Thread: 2
thread 2 cost time=10034,queue counter=0
Shutting down Thread: 6
thread 6 cost time=10028,queue counter=0
Shutting down Thread: 5
thread 5 cost time=10028,queue counter=0
Shutting down Thread: 3
thread 3 cost time=10034,queue counter=0
无任何消息消费。居然发现cost time与第一次相同。说明每个线程耗用10s,是线程run从开始到线程结束,所需要的时间。
 
 
实验代码地址:
 
https://code.csdn.net/wh0426/kafkademo/tree/master

8.结论

1.Kafka队列消息插入速度非常快,发布100W请求,耗时150秒。
2.Kafka队列消息消费也非常快,消费100W请求,耗时100秒
3.kfaka队列支持Partition分区功能,默认按key进行hash分区,自定义扩展实现Partitioner接口,并指定partitioner.class属性配置为自定义扩展类。
bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic page_visits1
Topic:page_visits1PartitionCount:10ReplicationFactor:1Configs:
Topic: page_visits1Partition: 0Leader: 2Replicas: 2Isr: 2
Topic: page_visits1Partition: 1Leader: 0Replicas: 0Isr: 0
Topic: page_visits1Partition: 2Leader: 2Replicas: 2Isr: 2
Topic: page_visits1Partition: 3Leader: 0Replicas: 0Isr: 0
Topic: page_visits1Partition: 4Leader: 2Replicas: 2Isr: 2
Topic: page_visits1Partition: 5Leader: 0Replicas: 0Isr: 0
Topic: page_visits1Partition: 6Leader: 2Replicas: 2Isr: 2
Topic: page_visits1Partition: 7Leader: 0Replicas: 0Isr: 0
Topic: page_visits1Partition: 8Leader: 2Replicas: 2Isr: 2
Topic: page_visits1Partition: 9Leader: 0Replicas: 0Isr: 0
4.后续需要测试单点故障,当一台leader kafka 失败后,剩余的follower是否可以继续接管任务。
分享到:
评论

相关推荐

    大型分布式电商系统架构是如何从0开始演进的?

    例如,通过分布式缓存Redis或Memcached提高服务抗压能力,利用分布式消息队列RabbitMQ或Kafka处理异步任务和解耦,以及使用Hystrix实现服务间的熔断保护。 6. **性能优化**:为了提供良好的用户体验,系统性能至关...

    玩转电商系统 深入剖析智慧电商平台_完整版 PDF电子书下载 带书签目录

    - **消息队列**:通过RabbitMQ、Kafka等中间件异步处理大量请求。 - **限流策略**:实施熔断、降级等机制避免服务过载。 #### 数据安全性 - **加密技术**:对敏感信息如密码进行加密处理。 - **安全审计**:记录...

    双十一电商系统架构图.zip

    综上所述,"双十一电商系统架构图"涉及的知识点广泛,涵盖了Java编程、分布式系统设计、数据库优化、负载均衡、缓存、消息队列、CDN、容器化、监控与安全等多个方面,旨在构建一个高效、稳定、安全的电商系统,应对...

    ... SpringBoot Dubbo构建的电商平台 微服务架构 商城 电商 微服务 高并发 kafka

    标题中的“SpringBoot Dubbo构建的电商平台”表明这是一个基于SpringBoot和Dubbo技术栈的电商系统,使用微服务架构来处理高并发场景。SpringBoot是Spring框架的一种简化使用方式,它集成了许多常用功能,方便快速...

    电商数仓项目(七) kafka 安装、配置和简单操作 源码

    它是一个发布/订阅模型的消息队列系统,可以处理大量的实时数据。Kafka的核心组件包括生产者、消费者和broker(服务器)。 **二、Kafka的安装** 1. **下载**: 首先,从Apache Kafka官网下载最新版本的Kafka发行版。...

    SpringBoot+Dubbo构建的电商平台-微服务架构、商城、电商、微服务、高并发、kafka、Elasticsearch.zip

    在本项目中,我们主要探讨的是使用SpringBoot和Dubbo技术构建一个先进的电商平台,该平台采用了微服务架构,能够处理高并发流量,并整合了Kafka消息队列和Elasticsearch搜索引擎,以提升系统的稳定性和数据检索效率...

    第2章:电商系统在双11大促活动下的架构体系.pdf

    双11期间,电商架构师必须对整个系统进行深度优化,从技术、运维到业务流程,确保系统在大促期间的稳定性和用户体验。这涉及到架构设计、技术选型、性能调优以及应急预案等多个环节,是电商技术领域的重要课题。

    电商消息系统架构演进&mdash1

    电商消息系统架构是电商平台的核心组成部分,它负责处理大量实时的、异步的数据交互,确保用户在浏览、购买、支付等操作过程中的信息准确无误地传递。随着业务的发展和技术的进步,电商消息系统的架构也在不断演进,...

    基于大中台小前台模式设计高并发电商架构@孙玄.pdf

    - **消息队列**:利用消息队列(如RabbitMQ、Kafka)进行异步通信,提升系统吞吐量。 - **缓存机制**:采用Redis等缓存技术减少数据库访问压力,提高响应速度。 #### 3. 实践案例 以某大型电商平台为例,该平台采用...

    构建高并发高可用的电商平台架构实践2

    4. **消息队列**:如RabbitMQ、Kafka等,用于异步处理任务和解耦服务。 5. **容器化技术**:如Docker、Kubernetes等,实现服务的快速部署和弹性伸缩。 6. **监控系统**:如Prometheus、ELK Stack等,用于实时监控...

    大型电商网站架构综合详解视频.zip

    - **异步处理**:使用消息队列(如RabbitMQ、Kafka)处理非实时任务,以解耦系统组件,提高响应速度。 - **容错与故障恢复**:包括冗余设计、自动故障转移和快速恢复机制,以保证系统的稳定性。 - **安全考虑**:...

    消息队列在项目中的应用.docx

    2. 消息队列的设计:根据项目需求设计消息队列的架构,例如 producer-consumer 模式、publish-subscribe 模式等。 3. 消息队列的配置:根据项目需求配置消息队列的参数,例如队列大小、消息超时时间等。 4. 消息队列...

    高并发高可用的电商平台架构

    - **低耦合设计**:通过消息队列、事件驱动等方式降低系统模块间的依赖关系,增强系统的灵活性和稳定性。 - **异步处理**:合理安排主副流程,采用异步通信机制减少等待时间,提高整体性能。 - **确认机制**:在...

    构建JAVA大型分布式电商项目实战高并发集群分布式系统架构PDF+视频.rar

    - 消息队列(如RabbitMQ、Kafka)用于解耦服务间通信,提高系统响应速度,并支持异步处理。 8. **安全与认证** - OAuth2、JWT等身份验证机制保护用户数据安全。 - SSL/TLS加密通信保障网络传输安全。 9. **监控...

    kafka的使用场景.docx

    电商系统中,Kafka可以作为消息队列,实现主业务逻辑完成后消息的发送,确保消息的完整性和可靠性。扩展流程如短信发送、配送处理等通过订阅Kafka消息来异步执行。为了解决数据一致性问题,通常采用最终一致性策略,...

    消息队列如何理解?

    4. **消息通信:** 消息队列还可以作为不同系统之间进行通信的一种方式,特别是在微服务架构中,各服务之间通过消息队列进行数据交换,既安全又高效。 #### 三、消息队列的应用场景 1. **异步处理:** 如上所述,...

    大型分布式Java应用电商项目教程pdf+架构师视频资源

    5. **消息队列**:消息队列如RabbitMQ或Kafka在分布式系统中用于解耦服务,提高系统的响应速度和可靠性。学习者将掌握如何在项目中使用消息队列进行异步处理和数据交换。 6. **负载均衡与集群**:为了处理高并发,...

    浅谈Java消息队列总结篇(ActiveMQ、RabbitMQ、ZeroMQ、Kafka)

    Java 消息队列是分布式系统中重要的组件,主要解决应用解耦、异步消息、流量削锋等问题,实现高性能、高可用、可伸缩和最终一致性架构。常用的消息队列有 ActiveMQ、RabbitMQ、ZeroMQ、Kafka、MetaMQ、RocketMQ 等。...

    消息队列入门项目demo

    消息队列是现代大型电商项目中不可或缺的一部分,它在分布式架构中扮演着至关重要的角色,帮助处理项目间的异步通信和高并发问题。本项目"消息队列入门项目demo"旨在提供一个基础的实践环境,让你了解并掌握消息队列...

    品优购电商系统--springboot+dubbo版.zip

    通过RabbitMQ或Kafka等消息队列实现异步处理,优化系统响应时间。 总的来说,品优购电商系统借助SpringBoot的快速开发特性,利用Dubbo实现服务化架构,结合MySQL的强大数据处理能力,构建了一个高效、稳定的电商...

Global site tag (gtag.js) - Google Analytics