- 浏览: 25669 次
- 性别:
- 来自: 深圳
文章分类
最新评论
物理机部署分配
3台物理机上部署 Zookeeper 3个,Flume 3个,Kafka 3个 (假定3台物理机IP地址分别为: IP1, IP2, IP3)
3台物理界上部署 ES 3个, Kibana 1个 (假定3台物理机IP地址分别为: IP4, IP5, IP6)
另外,请修改各服务器的文件句柄数限制,比如从默认的 1024 修改为 10240 !!
1. Zookeeper
配置3台 版本:3.4.8
1下载
zookeeper-3.4.8.tar.gz
2.解压
3.zookeeper目录的conf目录下创建zoo.cfg
# 心跳基本时间单位,毫秒级
tickTime=2000
# tickTime的个数,表示在leader选举结束后,followers与leader同步需要的时间
initLimit=10
# tickTime的个数,表示与leader同步完毕之后,进入正常请求转发或ping等消息交互时的超时时间。
syncLimit=5
# 快照等数据存储目录
dataDir=/home/app/program/zookeeper-3.4.8/data
# zookeeper服务端口
clientPort=2181
# 客户端最大连接数。
maxClientCnxns=1024
# 数据目录快照自动清理时保留快照的数量。默认是保留3个。
autopurge.snapRetainCount=3
# 数据目录快照自动清理间隔。单位小时,默认0,表示不开启清理功能。
autopurge.purgeInterval=1
# 集群配置 集群中机器的IP地址:集群机器之间通信端口:集群leader选举端口
server.1=IP1:2888:3888
server.2=IP2:2888:3888
server.3=IP3:2888:3888
4.修改port,dataDir,和集群节点的ip的配置信息
5.同样安装配置另外两个节点
6.在每台机器的zookeeper所配置的data目录下,建立myid文件。使用myid为当前机器分配一个编号。
IP1服务器上:
echo '1' > myid
IP2服务器上:
echo '2' > myid
IP3服务器上:
echo '3' > myid
6.每个节点分别执行 bin/zkServer.sh start 启动
2. Kafka
1. 下载
kafka2.11.zip
2. 解压
3. 修改config/server.properties 注意修改其中的IP地址 粗体字尤其要注意修改
必须修改的项:
broker.id=51 // 集群中每个节点的id,要求唯一
listeners=PLAINTEXT://IP:9092 // 格式: PLAINTEXT://主机名(或地址):端口
log.dirs=/data2/appdata/kafka-logs // 日志(消息)保存地址, 要求配置在剩余容量比较大的磁盘上
zookeeper.connect=IP1:2181,IP2:2181,IP3:2181 // zookeeper集群地址
log.retention.hours=168 // 日志保留时间,请修改为 168小时(7天)
4. 同样安装配置另外两个节点
5. 每个节点启动Kakfa
bin/kafka-server-start.sh -daemon config/server.properties
6. 创建Flume用Kafka Topic
bin/kafka-topics.sh --zookeeper IP1:2181,IP2:2181,IP3:2181 --topic flume_kafka_channel_topic --create --partitions 1 --replication-factor 3
3. Flume
1. 下载
apache-flume-1.6.0.zip
2. 解压
3. 修改config/flume-conf.properties
首先修改 flume的 channel 配置为 kafka_channel
agent1.sources = source1
agent1.sinks = elasticsearch
agent1.channels = kafka_channel // 修改flume的channel
agent1.sources.source1.type = avro
agent1.sources.source1.bind = 0.0.0.0
agent1.sources.source1.port = 44444
agent1.sources.source1.channels = kafka_channel // 修改source的channel
agent1.sinks.elasticsearch.channel = kafka_channel // 修改sink使用的channel
然后增加 kafka_channel 的配置项
agent1.channels.kafka_channel.type=org.apache.flume.channel.kafka.KafkaChannel // 增加此配置项
agent1.channels.kafka_channel.capacity=10000 // 增加此配置项
agent1.channels.kafka_channel.transactionCapacity=1000 // 增加此配置项
agent1.channels.kafka_channel.brokerList=IP1:9092,IP2:9092,IP3:9092 // 增加此配置项 修改为3个kafka的 ip地址和端口,逗号分隔
agent1.channels.kafka_channel.topic=flume_kafka_channel_topic // 增加此配置项
agent1.channels.kafka_channel.zookeeperConnect=IP1:2181,IP2:2181,IP3:2181 // 增加此配置项, 修改为zookeeper集群的 ip地址和端口,逗号分隔
以下为elasticsearch这个sink的配置项
agent1.sinks.elasticsearch.type = com.frontier45.flume.sink.elasticsearch2.ElasticSearchSink
agent1.sinks.elasticsearch.hostNames = IP4:9300,IP5:9300,IP6:9300 // ES集群地址
agent1.sinks.elasticsearch.indexName = jumore_dev_log
agent1.sinks.elasticsearch.batchSize = 500
agent1.sinks.elasticsearch.indexType = messages
agent1.sinks.elasticsearch.clusterName = es-local
agent1.sinks.elasticsearch.ttl=7d // 保留7天
agent1.sinks.elasticsearch.serializer = com.frontier45.flume.sink.elasticsearch2.ElasticSearchDynamicSerializer
agent1.sinks.elasticsearch.indexNameBuilder = com.frontier45.flume.sink.elasticsearch2.SimpleIndexNameBuilder
4. 以下jar包放至Flume的lib目录下
elasticsearch-sink2-1.0.jar
zookeeper-3.4.6.jar
5. 同样安装配置另外两个节点
6. 各个节点启动Flume
nohup bin/flume-ng agent --conf ./conf/ -f conf/flume-conf.properties -n agent1 &
4. ElasticSearch
请在IP4, IP5, IP6 3台服务器上各配置一个ES
配置文件中:要求 cluster.name : es-local
其他参考其他集群上的ES的要求进行配置,此处略。
5. Kibana
Kibana 配置一台即可,IP4, IP5, IP6 中 任意一台机器
1. 下载
kibana-4.5.4-linux-x64.tar.gz
2. 解压
3. 修改config/kibana.yml
必须修改的项:(配置为 提供查询服务的其中一台 ElasticSearch地址即可)
elasticsearch.url: "http://IP4:9200"
4. 启动kibana
bin/kibana
Ambari安装:
http://www.ibm.com/developerworks/cn/opensource/os-cn-bigdata-ambari/
3台物理机上部署 Zookeeper 3个,Flume 3个,Kafka 3个 (假定3台物理机IP地址分别为: IP1, IP2, IP3)
3台物理界上部署 ES 3个, Kibana 1个 (假定3台物理机IP地址分别为: IP4, IP5, IP6)
另外,请修改各服务器的文件句柄数限制,比如从默认的 1024 修改为 10240 !!
1. Zookeeper
配置3台 版本:3.4.8
1下载
zookeeper-3.4.8.tar.gz
2.解压
3.zookeeper目录的conf目录下创建zoo.cfg
# 心跳基本时间单位,毫秒级
tickTime=2000
# tickTime的个数,表示在leader选举结束后,followers与leader同步需要的时间
initLimit=10
# tickTime的个数,表示与leader同步完毕之后,进入正常请求转发或ping等消息交互时的超时时间。
syncLimit=5
# 快照等数据存储目录
dataDir=/home/app/program/zookeeper-3.4.8/data
# zookeeper服务端口
clientPort=2181
# 客户端最大连接数。
maxClientCnxns=1024
# 数据目录快照自动清理时保留快照的数量。默认是保留3个。
autopurge.snapRetainCount=3
# 数据目录快照自动清理间隔。单位小时,默认0,表示不开启清理功能。
autopurge.purgeInterval=1
# 集群配置 集群中机器的IP地址:集群机器之间通信端口:集群leader选举端口
server.1=IP1:2888:3888
server.2=IP2:2888:3888
server.3=IP3:2888:3888
4.修改port,dataDir,和集群节点的ip的配置信息
5.同样安装配置另外两个节点
6.在每台机器的zookeeper所配置的data目录下,建立myid文件。使用myid为当前机器分配一个编号。
IP1服务器上:
echo '1' > myid
IP2服务器上:
echo '2' > myid
IP3服务器上:
echo '3' > myid
6.每个节点分别执行 bin/zkServer.sh start 启动
2. Kafka
1. 下载
kafka2.11.zip
2. 解压
3. 修改config/server.properties 注意修改其中的IP地址 粗体字尤其要注意修改
必须修改的项:
broker.id=51 // 集群中每个节点的id,要求唯一
listeners=PLAINTEXT://IP:9092 // 格式: PLAINTEXT://主机名(或地址):端口
log.dirs=/data2/appdata/kafka-logs // 日志(消息)保存地址, 要求配置在剩余容量比较大的磁盘上
zookeeper.connect=IP1:2181,IP2:2181,IP3:2181 // zookeeper集群地址
log.retention.hours=168 // 日志保留时间,请修改为 168小时(7天)
4. 同样安装配置另外两个节点
5. 每个节点启动Kakfa
bin/kafka-server-start.sh -daemon config/server.properties
6. 创建Flume用Kafka Topic
bin/kafka-topics.sh --zookeeper IP1:2181,IP2:2181,IP3:2181 --topic flume_kafka_channel_topic --create --partitions 1 --replication-factor 3
3. Flume
1. 下载
apache-flume-1.6.0.zip
2. 解压
3. 修改config/flume-conf.properties
首先修改 flume的 channel 配置为 kafka_channel
agent1.sources = source1
agent1.sinks = elasticsearch
agent1.channels = kafka_channel // 修改flume的channel
agent1.sources.source1.type = avro
agent1.sources.source1.bind = 0.0.0.0
agent1.sources.source1.port = 44444
agent1.sources.source1.channels = kafka_channel // 修改source的channel
agent1.sinks.elasticsearch.channel = kafka_channel // 修改sink使用的channel
然后增加 kafka_channel 的配置项
agent1.channels.kafka_channel.type=org.apache.flume.channel.kafka.KafkaChannel // 增加此配置项
agent1.channels.kafka_channel.capacity=10000 // 增加此配置项
agent1.channels.kafka_channel.transactionCapacity=1000 // 增加此配置项
agent1.channels.kafka_channel.brokerList=IP1:9092,IP2:9092,IP3:9092 // 增加此配置项 修改为3个kafka的 ip地址和端口,逗号分隔
agent1.channels.kafka_channel.topic=flume_kafka_channel_topic // 增加此配置项
agent1.channels.kafka_channel.zookeeperConnect=IP1:2181,IP2:2181,IP3:2181 // 增加此配置项, 修改为zookeeper集群的 ip地址和端口,逗号分隔
以下为elasticsearch这个sink的配置项
agent1.sinks.elasticsearch.type = com.frontier45.flume.sink.elasticsearch2.ElasticSearchSink
agent1.sinks.elasticsearch.hostNames = IP4:9300,IP5:9300,IP6:9300 // ES集群地址
agent1.sinks.elasticsearch.indexName = jumore_dev_log
agent1.sinks.elasticsearch.batchSize = 500
agent1.sinks.elasticsearch.indexType = messages
agent1.sinks.elasticsearch.clusterName = es-local
agent1.sinks.elasticsearch.ttl=7d // 保留7天
agent1.sinks.elasticsearch.serializer = com.frontier45.flume.sink.elasticsearch2.ElasticSearchDynamicSerializer
agent1.sinks.elasticsearch.indexNameBuilder = com.frontier45.flume.sink.elasticsearch2.SimpleIndexNameBuilder
4. 以下jar包放至Flume的lib目录下
elasticsearch-sink2-1.0.jar
zookeeper-3.4.6.jar
5. 同样安装配置另外两个节点
6. 各个节点启动Flume
nohup bin/flume-ng agent --conf ./conf/ -f conf/flume-conf.properties -n agent1 &
4. ElasticSearch
请在IP4, IP5, IP6 3台服务器上各配置一个ES
配置文件中:要求 cluster.name : es-local
其他参考其他集群上的ES的要求进行配置,此处略。
5. Kibana
Kibana 配置一台即可,IP4, IP5, IP6 中 任意一台机器
1. 下载
kibana-4.5.4-linux-x64.tar.gz
2. 解压
3. 修改config/kibana.yml
必须修改的项:(配置为 提供查询服务的其中一台 ElasticSearch地址即可)
elasticsearch.url: "http://IP4:9200"
4. 启动kibana
bin/kibana
Ambari安装:
http://www.ibm.com/developerworks/cn/opensource/os-cn-bigdata-ambari/
发表评论
-
Canal相关理解
2017-12-29 16:18 462转载:http://www.importnew.com/251 ... -
kettle部署
2017-12-26 16:04 7251.将jmbi sql先上生产环境, 参考附件jmbi.sql ... -
crontab定时运行MR不行,手动shell可以执行成功问题排查过程
2017-12-26 15:48 863设置了定时任务,但MR任务没有执行。 第一步:手动执行she ... -
Flume+kafka+Spark Steaming demo2
2017-11-22 13:15 462一,flume配置 # Name the components ... -
Flume+Kafka+Spark Steaming demo
2017-11-21 15:21 445一.准备flume配置 a1.sources = r1 a1. ... -
HBase表导出成HDFS
2017-10-19 19:40 900导出步骤:在old cluster上/opt/cloudera ... -
zepplin实战
2017-10-13 16:10 362一句话介绍Zeppelin 以笔记(Note)的形式展示的数据 ... -
Azkaban安装
2017-10-10 18:32 907一.下载 https://github.com/azkaban ... -
KYKIN安装
2017-09-30 17:35 121. Kylin的一些概念 No. 关键字 解释 1 Kyl ... -
KYKIN安装
2017-09-30 17:40 3631. Kylin的一些概念 No. 关键字 解释 1 Kyl ... -
Logstash安装部署配置
2017-04-28 10:24 1034为了实现各业务平台日志信息采集到大数据平台hdf ... -
HBASE API
2017-04-18 11:01 475package org.jumore.test; impor ... -
Ambari卸载shell
2017-03-28 17:28 470#!/bin/bash # Program: # uni ... -
linux ssh 相互密码登录
2017-02-22 13:40 4181.修改集群各机器名称 vim /etc/sysconfig/ ... -
Kettle Linux 安装部署
2017-02-15 17:20 1360一.安装JDK环境:根据自己的linux系统选择相应的版本,比 ... -
hadoop环境搭建
2017-01-23 17:31 355192.168.23.231 server1 192.168. ... -
Storm demo
2016-12-19 15:50 441public class SentenceSpout exte ... -
运行Hadoop jar 第三方jar包依赖
2016-08-22 13:47 1028将自己编写的MapReduce程序打包成jar后,在运行 ha ... -
windows10下运行MR错误
2016-07-05 13:45 1672当在windows下运行MR程序时,会报各种错误。现把这次碰到 ... -
HBase问题
2016-06-16 17:02 3081.java.net.UnknownHostException ...
相关推荐
北京ca证书公司提供的的应用环境安装程序,支持一般的key登录系统。
VOS3000环境安装文件,VOS3000安装时,所需要修改的环境信息,适用于vos3000安装的第一步(注意:这是安装vos3000所需要的环境的安装包,并非vos3000的安装包,vos3000的安装包可以在我的其他资源中下载,在资源上传...
docker环境安装相关命令、docker环境安装相关命令、docker环境安装相关命令、docker环境安装相关命令、docker环境安装相关命令、docker环境安装相关命令、docker环境安装相关命令、docker环境安装相关命令、docker...
Allure 环境安装及配置详解 Allure 是一个流行的测试报告工具,通过本教程,您将了解如何安装和配置 Allure 环境,包括 Java 和 Python 环境所需的资源解释。 安装 Allure.Report 1. 下载 Allure Report:访问 ...
windows环境安装gcc环境
Windows CE.net 环境安装 提示:开发环境安装程序请自行从微软公司购买或其他途径获得,Embest 公司不能收费或免费提供。 安装 Windows CE.net 开发环境比较简单和方便,只要基本按照安装向导的提示一步步操作就可 ...
Python的概述与环境安装 本节所讲内容: 1.1 Python 介绍 1.2 Python2 与 Python3 的比较 1.3 Python3 的安装 1.4 Python 环境变量配置 1.5 Python 安装目录介绍 1.6 Python 脚本结构 1.7 Python 脚本运行
人工智能方法实践实战环境安装文档 在人工智能方法实践实战环境安装文档中,我们需要安装必要的软件和工具,以便在 Windows 和 MAC 操作系统上实现人工智能方法的实践。下面是安装 Anaconda、PyTorch 的步骤和知识...
以下是详细的Python环境安装步骤和注意事项: 一、准备工作 在开始安装Python之前,确保你的麒麟V10服务器已经更新到最新版本,以获取最新的安全补丁和性能优化。执行以下命令来更新系统: ```bash sudo apt-get ...
Ubuntu_Gnome环境安装KDE桌面 在本篇文章中,我们将学习如何在 Ubuntu Gnome 环境中安装 KDE 桌面。KDE 桌面环境是 Linux plataforma 的一个流行的桌面环境,提供了丰富的功能和美观的界面。下面我们将 step-by-...
物联⽹课程服务端软件环境安装 JDK8与IntelliJ IDEA安装 Windows环境下安装 Java安装 IntelliJ MacOS环境下安装 Java安装 IntelliJ Node.js安装 Windows环境下安装 MacOS环境下安装 MySQL安装 Windows环境下安装 ...
### Metasploitable3环境安装知识点详解 #### 一、Metasploitable3环境简介与安装背景 **Metasploitable3**是一个专门为渗透测试学习和实验设计的虚拟机环境,它预装了大量的漏洞和易受攻击的服务,使得安全研究...
Java java环境安装 java环境安装 java环境安装 java环境安装 java环境安装
Python+Pycharm+Selenium 环境安装 本文档详细介绍了 Python、Pycharm 和 Selenium 环境的安装步骤,涵盖了 Python 和 Pycharm 的安装、setuptools 和 pip 的安装、Selenium 的安装等方面的内容。 一、Python 安装...
go环境安装 go的运行 其他 前言 Mac中可以通过brew命令来安装go。 brew的安装 如果Mac中没有brew命令,可以按如下步骤安装: 访问brew官网:https://brew.sh 按照官网指引去安装(在mac终端中运行这句话,就安装...
标题《Opencpn 开发环境安装详解》所涉及的知识点包括: 1. 开发环境安装准备:通常,在进行OpenCPN开发环境的搭建之前,需要准备一系列的基础软件工具。根据简易手册中描述,这些工具包括但不限于Visual Studio、...
JavaWeb 开发环境安装 JavaWeb 开发环境安装是指安装 Java Development Kit(JDK)、Apache Tomcat 和 Eclipse 等必要组件,从而搭建 JavaWeb 开发环境。以下是安装每个组件的详细步骤: 安装 JDK Java ...
07【环境安装】视频 Windows 安装 Python 环境 python 3.6.5 安装视频教程。
Win11 离线环境安装 .Net Framework 3.5 在 Windows 11 中安装 .Net Framework 3.5 是一件重要的事情,因为许多软件都需要这个框架来运行。尤其是在离线环境中安装,会遇到一些挑战。但是,通过使用 DISM 工具和...
jdk-8u51-linux-x64.gz 为JAVA环境安装包,安装了该包后,可以允许JAVA 程序。