l 我想分析一下用户行为(pageviews),以便我能设计出更好的广告位
l 我想对用户的搜索关键词进行统计,分析出当前的流行趋势。这个很有意思,在经济学上有个长裙理论,就是说,如果长裙的销量高了,说明经济不景气了,因为姑娘们没钱买各种丝袜了。
l 有些数据,我觉得存数据库浪费,直接存硬盘又怕到时候操作效率低。
这个时候,我们就可以用到分布式消息系统了。虽然上面的描述更偏向于一个日志系统,但确实kafka在实际应用中被大量的用于日志系统。
首先我们要明白什么是消息系统,在kafka官网上对kafka的定义叫:A distributed publish-subscribe messaging system。publish-subscribe是发布和订阅的意思,所以更准确的说kafka是一个消息订阅和发布的系统。publish-subscribe这个概念很重要,因为kafka的设计理念就可以从这里说起。
我们将消息的发布(publish)暂时称作producer,将消息的订阅(subscribe)表述为consumer,将中间的存储阵列称作broker,这样我们就可以大致描绘出这样一个场面:
生产者(蓝色,蓝领么,总是辛苦点儿)将数据生产出来,丢给broker进行存储,消费者需要消费数据了,就从broker中去拿出数据来,然后完成一系列对数据的处理。
乍一看这也太简单了,不是说了它是分布式么,难道把producer、broker和consumer放在三台不同的机器上就算是分布式了么。我们看kafka官方给出的图:
多个broker协同合作,producer和consumer部署在各个业务逻辑中被频繁的调用,三者通过zookeeper管理协调请求和转发。这样一个高性能的分布式消息发布与订阅系统就完成了。图上有个细节需要注意,producer到broker的过程是push,也就是有数据就推送到broker,而consumer到broker的过程是pull,是通过consumer主动去拉数据的,而不是broker把数据主动发送到consumer端的。
这样一个系统到底在哪里体现出了它的高性能,我们看官网上的描述:
Persistent messaging with O(1) disk structures that provide constant time performance even with many TB of stored messages.
High-throughput: even with very modest hardware Kafka can support hundreds of thousands of messages per second.
Explicit support for partitioning messages over Kafka servers and distributing consumption over a cluster of consumer machines while maintaining per-partition ordering semantics.
Support for parallel data load into Hadoop.
至于为什么会有O(1)这样的效率,为什么能有很高的吞吐量我们在后面的文章中都会讲述,今天我们主要关注的还是kafka的设计理念。了解完了性能,我们来看下kafka到底能用来做什么,除了我开始的时候提到的之外,我们看看kafka已经实际在跑的,用在哪些方面:
LinkedIn - Apache Kafka is used at LinkedIn for activity stream data and operational metrics. This powers various products like LinkedIn Newsfeed, LinkedIn Today in addition to our offline analytics systems like Hadoop.
Tumblr - http://highscalability.com/blog/2012/2/13/tumblr-architecture-15-billion-page-views-a-month-and-harder.html
Mate1.com Inc. - Apache kafka is used at Mate1 as our main event bus that powers our news and activity feeds, automated review systems, and will soon power real time notifications and log distribution.
Tagged - Apache Kafka drives our new pub sub system which delivers real-time events for users in our latest game - Deckadence. It will soon be used in a host of new use cases including group chat and back end stats and log collection.
Boundary - Apache Kafka aggregates high-flow message streams into a unified distributed pubsub service, brokering the data for other internal systems as part of Boundary's real-time network analytics infrastructure.
DataSift - Apache Kafka is used at DataSift as a collector of monitoring events and to track user's consumption of data streams in real time. http://highscalability.com/blog/2011/11/29/datasift-architecture-realtime-datamining-at-120000-tweets-p.html
Wooga - We use Kafka to aggregate and process tracking data from all our facebook games (which are hosted at various providers) in a central location.
AddThis - Apache Kafka is used at AddThis to collect events generated by our data network and broker that data to our analytics clusters and real-time web analytics platform.
Urban Airship - At Urban Airship we use Kafka to buffer incoming data points from mobile devices for processing by our analytics infrastructure.
Metamarkets - We use Kafka to collect realtime event data from clients, as well as our own internal service metrics, that feed our interactive analytics dashboards.
SocialTwist - We use Kafka internally as part of our reliable email queueing system.
Countandra - We use a hierarchical distributed counting engine, uses Kafka as a primary speedy interface as well as routing events for cascading counting
FlyHajj.com - We use Kafka to collect all metrics and events generated by the users of the website.
至此你应该对kafka是一个什么样的系统有所体会,并能了解他的基本结构,还有就是他能用来做什么。那么接下来,我们再回到producer、consumer、broker以及zookeeper这四者的关系中来
我们看上面的图,我们把broker的数量减少,只有一台。现在假设我们按照上图进行部署:
l Server-1 broker其实就是kafka的server,因为producer和consumer都要去连它。Broker主要还是做存储用。
l Server-2是zookeeper的server端,zookeeper的具体作用你可以去官网查,在这里你可以先想象,它维持了一张表,记录了各个节点的IP、端口等信息(以后还会讲到,它里面还存了kafka的相关信息)。
l Server-3、4、5他们的共同之处就是都配置了zkClient,更明确的说,就是运行前必须配置zookeeper的地址,道理也很简单,这之间的连接都是需要zookeeper来进行分发的。
l Server-1和Server-2的关系,他们可以放在一台机器上,也可以分开放,zookeeper也可以配集群。目的是防止某一台挂了。
简单说下整个系统运行的顺序:
1. 启动zookeeper的server
2. 启动kafka的server
3. Producer如果生产了数据,会先通过zookeeper找到broker,然后将数据存放进broker
4. Consumer如果要消费数据,会先通过zookeeper找对应的broker,然后消费。
对kafka的初步认识就写到这里,接下去我会写如何搭建kafka的环境。最后感谢大神 @rockybean 的指导和帮助。
- 大小: 2.5 KB
- 大小: 28.3 KB
- 大小: 12.8 KB
分享到:
相关推荐
本文来自于csdn,Kafka是最初由Linkedin公司开发,是一个分布式、支持分区的(partition)、多副本的(replica),基于zookeeper协调的分布式消息系统....用于在两个应用程序之间或分布式系统中发送消
在本文中,我们将深入探讨Apache Kafka,这是一个分布式流处理平台,广泛应用于大数据处理、实时数据管道和消息系统。Kafka实战演练1将带领我们初步了解Kafka的核心概念和基本操作,让我们一起探索这个强大的工具。 ...
包括分布式缓存(如Redis或Memcached)用于减轻数据库压力,负载均衡器(如Nginx或HAProxy)用于分配流量,反向代理和CDN(内容分发网络)加速内容传输,分布式消息队列(如RabbitMQ或Kafka)解耦系统组件,...
Zookeeper 分布式系统的基石 从0开始搭建3个节点额度zookeeper集群 深入分析Zookeeper在disconf配置中心的应用 基于Zookeeper Watcher 核心机制深入源码分析 Zookeeper集群升级、迁移 基于Zookeeper实现分布式...
Kafka作为一个典型的分布式消息系统,能够支持水平扩展,提高集群的吞吐量。Kafka中的生产者(Producer)负责将数据发布到主题(Topic),消费者(Consumer)则订阅这些主题并从Kafka获取数据。Zookeeper集群用于...
在本文中,我们将深入探讨Haskell编程语言与Apache Kafka集成的初步知识,特别是关于Haskell的Kafka客户端的实现。标题“haskell的kafka客户端的(非常谦虚的)开端”暗示了这是一个关于初学者如何在Haskell环境中...
该项目完全使用Java语言实现,强调了Java在大数据处理和分布式系统中的应用。Java具有广泛的支持库,如Twitter4J和Kafka的Java客户端,使得开发和集成变得简单。同时,Java的跨平台特性使得该解决方案可以在多种环境...
通过以上讲解,我们可以看到,这个推荐系统结合了实时流处理、消息队列、内存数据库、分布式存储以及机器学习算法,构建了一套高效、实时且具备高预测能力的推荐模型。这种架构设计充分考虑了大数据处理的实时性、...
而Kafka,作为一种高吞吐量的分布式消息系统,非常适合用来处理实时数据流。在工程研发数据挖掘的背景下,Kafka可以帮助企业实时收集数据,而Hadoop则可以在数据积累到一定量后进行大规模的存储和分析处理。 在具体...
2. **消息队列**:为了处理异步任务和确保系统的高并发性,项目可能使用了RabbitMQ或Kafka这样的消息队列服务,将耗时的操作从主线程分离出来,提高响应速度。 3. **负载均衡**:为了分发用户请求并避免单点故障,...
消息中间件是分布式系统中不可或缺的一部分,它的核心功能是实现不同系统之间的高效可靠的消息传递。通过这种方式,消息中间件能够帮助解决系统间的耦合问题、支持异步消息传递以及削峰等需求。这些特性使得消息...
RabbitMQ 面试题及答案 ...Kafka 提供的消息中间件的功能明显较少一些,相对上述几款 MQ 中间件要少很多,但是 Kafka 的优势在于专为超高吞吐量的实时日志采集、实时数据同步、实时数据计算等场景来设计。
- **分布式消息队列(Kafka)**:作为数据传输的中间层,实现数据的可靠传递。 - **流式计算框架(Storm)**:处理实时数据流,提供低延迟的计算能力。 - **分布式缓存(Redis)**:用于存储高频访问的数据,提高系统...
最后,Apache Kafka是一个高吞吐量的分布式消息队列,常用于构建实时数据管道。Java开发者可以使用Kafka的Java客户端库来生产和消费消息,实现数据的异步处理。 总的来说,Java处理海量数据涉及内存管理、分片处理...
常见的消息队列产品有RabbitMQ、Kafka、ActiveMQ等。 在大数据去重处理中,消息队列可以扮演关键角色。当大量数据涌入时,系统可以通过消息队列将数据分发到多个消费者进行处理,每个消费者负责检查其分配的数据...
综上所述,MySQL业务双活设计方案涉及到分布式系统、数据复制、高可用性、一致性模型、数据处理和消息队列等多个核心概念,通过合理的架构设计和组件选择,可以构建出可靠的跨数据中心数据库服务。
Kafka是由LinkedIn开发并贡献给Apache的分布式流处理平台,它兼具消息队列和数据流处理的功能。在数据采集平台中,Kafka主要作为实时数据管道,能够高效地处理和存储大量的实时数据流。Kafka的高吞吐量和低延迟特性...
微服务架构是分布式系统的一种实现方式,它强调服务的独立性和轻量级通信。每个微服务运行在自己的进程中,通常通过HTTP RESTful API进行通信。这种设计允许使用不同的编程语言和技术栈,增强了系统的灵活性。在...