2.1 伪分布式安装 生产消费数据案例
9092是kafka默认端口,在 kafka/conf/server.properties下可以看到
解压: [root@h2single local]# tar -zxvf kafka_2.10-0.8.2.0.tgz 重命名 [root@h2single local]# mv kafka_2.10-0.8.2.0/ kafka 使用自动zk 并启动zk: 启动ZK : [root@h2single kafka]# bin/zookeeper-server-start.sh config/zookeeper.properties & (&表示后台启动) 启动kafka服务 [root@h2single kafka]# bin/kafka-server-start.sh config/server.properties & 创建主题( 意味着有临时存放数据的地方了) [root@h2single kafka]# bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test 命令解释如下: --zookeeper localhost:2181 指定了zk --replication-factor 1 指定了副本数 --partitions 1 指定了分区数 --topic test 主题名称 查看所有主题名称: [root@h2single kafka]# bin/kafka-topics.sh --list --zookeeper localhost:2181 结果: [2015-03-06 23:31:25,145] INFO Established session 0x14bf32190630002 with negotiated timeout 30000 for client /0:0:0:0:0:0:0:1:59839 (org.apache.zookeeper.server.ZooKeeperServer) test ----> 显示刚创建的topic名称 查看指定主题名称的详细信息: [root@h2single kafka]# bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test Topic:test PartitionCount:1 ReplicationFactor:1 Configs: Topic: test Partition: 0 0表示标号 Leader: 0 Replicas: 0 Isr: 0 创建生产者 [root@h2single kafka]# bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test 后输入如下 hello me you an me are ok 创建消费者 [root@h2single kafka]# bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning 得到如下数据,表示生产的数据被消费到了 hello you hhello me you an me are ok
伪分布下制造多个broker,并指定副本个数下创建主题:
1 copy 配置文件 conf/server.properties [root@h2single config]# cp server.properties server1.properties [root@h2single config]# cp server.properties server2.properties 2 修改端口 port vi server1.properties broker.id=1 port=9093 log.dirs=/tmp/kafka1-logs vi server2.properties broker.id=2 port=9094 log.dirs=/tmp/kafka2-logs 3 启动另外两个broker: bin/kafka-server-start.sh config/server1.properties & bin/kafka-server-start.sh config/server2.properties & 4 jps查看,目前已经启动了三个kafka broker: 5 在创建主题的时候 设定副本个数 bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic test1 创建生产者 bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test1 创建消费者 bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test1 --from-beginning
相关推荐
Kafka的topic设计通常需要考虑分区策略,以便于数据的均衡分布和高效消费。 4. **Canal配置**:位于`conf`目录下的配置文件,包括canal.properties、instance.properties等,用于设置Canal实例的运行参数,如MySQL...
4. 安装与部署:文档将详细介绍如何在各种环境中安装HBase,包括单机模式、伪分布式模式和完全分布式模式。还会涵盖配置HBase的步骤,如设置环境变量、修改配置文件以及启动和停止服务。 5. 配置项介绍:HBase有很...
12. Cloudera提供的安装CDH(Cloudera's Distribution Including Apache Hadoop)的方法包括使用Cloudera Manager、Tarball、Yum和Rpm等。 13. HDFS 1.0默认的BlockSize大小是64MB,这也是Hadoop早期版本中数据块的...
57_hadoop伪分布模式8 I/ e; `1 Y$ b+ p1 R5 ^ 58_编写分发脚本-xcall-rsync1 X% G: Y' Q; }5 I$ [ 59_hadoop完全分布式-hdfs体验 60_hadoop的架构原理图 61_临时文件 62_hadoop的简单介绍, p5 P$ @+ O2 V. p } 63_...
Zookeeper提供了三种安装模式:单机模式、集群模式和集群伪分布模式。对于初学者,通常推荐从单机模式开始。 1. **单机模式** - 首先,从Apache官方网站下载Zookeeper的最新稳定版本。 - 安装需要Java环境,至少...
6. **Hadoop的安装与配置**:书中会详细讲解如何在各种环境下安装和配置Hadoop,包括单机模式、伪分布式模式和完全分布式模式,以及如何调整配置参数以优化性能。 7. **Hadoop的故障恢复与安全性**:Hadoop通过心跳...
- 配置伪分布模式:这种方式是在同一台机器上模拟多个节点,对于理解分布式原理非常有帮助。 - 配置完全分布模式:这是生产环境中最常见的部署方式,涉及多个物理节点的设置。 - **基础操作**: - 文件上传与...
3. **伪分布模式**:在同一台机器上模拟分布式的环境。 4. **完全分布模式**:部署在多台物理机器上的集群模式。 #### 六、Hadoop的实际应用案例 1. **日志分析**:对网站的日志文件进行分析,提取有用的信息。 2....
### 大数据技术知识点解析 #### 一、Kafka Message结构 ...以上内容涵盖了从Kafka Message的基本结构到Hadoop核心概念和高级特性的详细介绍,以及一个具体的案例分析,旨在帮助读者全面理解大数据领域的关键技术点。
在部署Zookeeper时,有三种模式可以选择:单机模式、集群模式和集群伪分布模式。单机模式适合本地开发测试,而集群模式则适用于生产环境,提供高可用性和容错性。集群伪分布模式则是在单台机器上模拟多节点集群,...
使用Feign,只需要创建一个接口并注解,它具有可插拔的注解特性,可使用Feign 注解和JAX-RS注解,Feign支持可插拔的编码器和解码器,Feign默认集成了Ribbon,并和Eureka结合,默认实现了负载均衡的效果。 Feign ...
'[IT18掌www.it18zhang.com]012.Hadoop Windows下免Cygwin伪分布安装.pptx' '[IT18掌www.it18zhang.com]Hbase.pptx' '[IT18掌www.it18zhang.com]013.Hadoop Windows-native启动异常解决与多桌面.pptx' '[IT18掌...
- **数据块管理**:HDFS自动将文件分割成多个块,并将这些块分布在集群中的不同节点上,以提高容错性和数据访问速度。 6. **MapReduce程序开发**: - **编程模型**:编写MapReduce程序时,开发者需要定义两个函数...
Spark支持本地模式、伪分布式模式和完全分布式模式三种部署方式。与Hadoop、Storm等传统架构相比,Spark的部署和应用方式更为灵活。 6. 流计算之Sparkstreaming 6.1 设计理念 SparkStreaming是基于Spark的流计算...