简介
最近在工作中需要对一些日志做分析,于是调研了一些日志记录和分析处理的工具。后面选择了ELK这个套件。ELK是三个开源软件的缩写,分别表示:Elasticsearch, Logstash, Kibana。其中Elasticsearch是用于实现索引和搜索功能目的,Logstash是一个很灵活的日志收集和处理工具。Kibana是和Elasticsearch配套的图形展示界面,用于方便的展示数据和分析数据。本文对整个套件的安装配置过程做一个详细的记录。
环境信息
安装配置的环境信息如下:
操作系统: Ubuntu 14.04 64bit
内存: 4GB
CPU: 2
具体的安装过程如下:
安装java
推荐安装的java版本为java 7及以上,其中java 7的安装可以使用如下命令:
sudo apt-get install openjdk-7-jdk
这里安装的是openjdk7。如果需要安装oracle jdk的话,可以使用如下命令:
sudo apt-get install python-software-properties sudo add-apt-repository ppa:webupd8team/java sudo apt-get update
这里安装上了oracle jdk的源,然后使用如下命令安装:
sudo apt-get install oracle-java8-installer
如果我们需要安装其他版本的jdk只需要将上述命令行里的java8改成对应的版本就可以了,比如java7, java6。
安装elasticsearch
执行如下命令下载elasticsearch:
wget https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-1.4.4.zip
这里下载的是目前最新的elasticsearch1.4.4。
下载到本地之后,将elasticsearch文件包解压到某个目录,假设我们默认解压到当前目录:
tar zxvf elasticsearch-1.4.4.zip
打开elasticsearch目录下的config/elasticsearch.yml文件,修改文件里面的内容,保证修改后的文件内容包含如下:
# Disable HTTP completely: # http.enabled: true http.cors.enable: true
修改完毕后保存文件。
安装Kibana
执行如下命令下载kibana:
wget https://download.elasticsearch.org/kibana/kibana/kibana-3.0.1.tar.gz
下载完毕后执行命令解压缩:
tar zxvf kibana-3.0.1.tar.gz
修改kibana文件目录下的config.js:
保证文件中有如下内容未被注释:
elasticsearch: "http://"+window.location.hostname+":9200",
因为后续需要创建nginx服务器来运行kibana,所以这里先建立一个kibana放到一个合适的目录:
sudo mkdir -p /var/www/kibana3
然后将kibana拷贝到指定的目录中:
sudo cp -R ./kibana-3.0.1/* /var/www/kibana3/
在使用kibana之前我们还需要先安装nginx。
安装nginx
执行如下命令安装nginx:
sudo apt-get install nginx
安装结束之后建立文件nginx.conf,其内容如下:
# # Nginx proxy for Elasticsearch + Kibana # # In this setup, we are password protecting the saving of dashboards. You may # wish to extend the password protection to all paths. # # Even though these paths are being called as the result of an ajax request, the # browser will prompt for a username/password on the first request # # If you use this, you'll want to point config.js at http://FQDN:80/ instead of # http://FQDN:9200 # server { listen *:80 ; server_name localhost; access_log /var/log/nginx/kibana.myhost.org.access.log; location / { root /var/www/kibana3; index index.html index.htm; } location ~ ^/_aliases$ { proxy_pass http://127.0.0.1:9200; proxy_read_timeout 90; } location ~ ^/.*/_aliases$ { proxy_pass http://127.0.0.1:9200; proxy_read_timeout 90; } location ~ ^/_nodes$ { proxy_pass http://127.0.0.1:9200; proxy_read_timeout 90; } location ~ ^/.*/_search$ { proxy_pass http://127.0.0.1:9200; proxy_read_timeout 90; } location ~ ^/.*/_mapping { proxy_pass http://127.0.0.1:9200; proxy_read_timeout 90; } # Password protected end points location ~ ^/kibana-int/dashboard/.*$ { proxy_pass http://127.0.0.1:9200; proxy_read_timeout 90; limit_except GET { proxy_pass http://127.0.0.1:9200; auth_basic "Restricted"; auth_basic_user_file /etc/nginx/conf.d/kibana.myhost.org.htpasswd; } } location ~ ^/kibana-int/temp.*$ { proxy_pass http://127.0.0.1:9200; proxy_read_timeout 90; limit_except GET { proxy_pass http://127.0.0.1:9200; auth_basic "Restricted"; auth_basic_user_file /etc/nginx/conf.d/kibana.myhost.org.htpasswd; } } }
需要注意其中如下行的内容server_name localhost; 需要将server_name设置成对应的机器名。
文件修改结束后将文件拷贝到指定的目录:
sudo cp nginx.conf /etc/nginx/sites-available/default
重启nginx以使得改动生效:
sudo service nginx restart
安装logstash
下载logstash:
wget https://download.elasticsearch.org/logstash/logstash/logstash-1.4.2.tar.gz
解压logstash文件包:
tar zxvf logstash-1.4.2.tar.gz
这样,上述的elasticsearch, kibana, logstash就都已经安装好了。我们可以通过运行一个简单的示例来验证安装是否正确。
验证安装
进入elasticsearch目录,启动elasticsearch:
cd ~/elasticsearch/ ./bin/elasticsearch
在logstash目录创建一个文件sample.conf,其内容如下:
input { stdin{} } output { elasticsearch { host => localhost } stdout { codec => rubydebug } }
其中output里将输出定向到两个地方,一个是elasticsearch,一个是本地的console。
在logstash安装目录下执行命令启动logstash:
./bin/logstash -f sample.conf
在启动命令后输入字符串hello,则屏幕显示如下输出:
{ "message" => "hello", "@version" => "1", "@timestamp" => "2015-02-27T06:08:02.038Z", "host" => "ubuntu" }
打开浏览器,输入http://localhost,则可以看到kibana的页面如下:
如果点击页面右边logstash dashboard的链接,则可以看到如下的界面:
我们在下面的All EVENTS部分还可以看到刚才在logstash命令行显示的内容hello。
这样,整个ELK的单机安装过程就结束了。
参考材料
https://www.digitalocean.com/community/tutorials/how-to-use-logstash-and-kibana-to-centralize-and-visualize-logs-on-ubuntu-14-04
相关推荐
这个过程将涉及系统环境准备、软件安装、用户管理、JDK安装、软件配置以及系统权限分配等关键步骤。我们还将讨论在部署过程中可能遇到的一些常见问题及其解决方案。 首先,为了部署ELK,需要准备一个全新的CentOS 7...
在搭建实时日志分析系统 ELK (ElasticSearch + Logstash + Kibana) 5.5 版本的过程中,需要注意以下几个关键点: 1. **Java 环境**:ELK 的三个组件均依赖于 Java 运行环境,并且要求 Java 版本为 1.8 及以上。 2. ...
在部署过程中,还应考虑网络配置、存储方案、备份策略和安全机制等其他因素,以确保整个ELK系统的稳定性和数据的安全性。 ELK系统的实际应用十分广泛,企业可以通过ELK系统对大规模的服务器日志进行统一管理和实时...
Elasticsearch的安装包括单机版安装和集群版安装。在安装前,可以通过Docker容器或者Chrome插件进行安装。安装过程中,用户需要了解Elasticsearch的基本概念,如索引(indices)、文档(documents)、映射(mappings...
该安装包实现利用给定参数安装单机版或者集群版es数据库,指定参数后安装过程全自动,自动修改系统内核,配置jdk,自动识别并配置内存,自动根据节点数配置集群脑溢节点配置数。涉及到以下操作 1、自动检测配置java...
在实际部署过程中,需要根据具体的硬件资源和需求来调整Elasticsearch的配置,以确保其性能和稳定性。同时,Logstash用于收集、过滤和转发日志数据,Kibana则提供可视化界面,帮助用户分析和理解Elasticsearch中的...
1. **安装过程**:按照提供的步骤完成ESXi的安装。 2. **网络配置**:配置静态IP地址、FQDN主机名、禁用IPv6、DNS服务,并开启SSH和ESXi SHELL以方便后续的命令行操作。 3. **VSAN集群搭建**:安装完ESXi后,根据...
- **日志架构演变**: 随着业务规模的增长和技术的发展,日志架构也经历了从简单到复杂的演进过程。 - **ELK系统架构**: - **Rsyslog**: 作为日志收集工具,负责从不同来源收集日志数据。 - **Nginx**: 通过syslog...
安装部署阶段包括了Kafka和Zookeeper集群的安装,Elasticsearch集群的配置,以及Logstash和Kibana的安装和配置。这其中包括了安装JDK、配置ES和JVM的优化、配置Logstash的shipper和indexer,以及通过Logstash从Kafka...
日志管理和监控工具如ELK(Elasticsearch, Logstash, Kibana)组合则用于收集、分析和展示系统运行时的日志信息,帮助快速定位和解决问题。 总的来说,易买网电商项目是一个全面的Java Web应用,涵盖了从开发、测试...
RocketMQ支持多种部署模式,包括单机、主从复制和集群部署,其中集群部署提供了更高的可用性和容错性。 在集群部署RocketMQ时,我们需要配置多个NameServer和Broker节点。NameServer采用无状态设计,可以轻松实现多...
这些工具简化了集群的配置和部署过程。 三、Kubernetes网络配置 网络是Kubernetes集群中不可或缺的部分,网络配置主要关注如何使Pod之间以及Pod与外部通信。 1. 网络插件 Kubernetes支持多种网络插件,比如...
单机模式下,只需下载、解压、修改配置并启动服务。在集群模式下,我们需要配置多个节点,并为每个节点指定唯一的myid,确保集群的稳定运行。 Zookeeper提供了丰富的命令行工具,如`connect`用于连接服务器,`get`...
《大型网站与Java中间件实践》一书,由阿里巴巴资深工程师曾宪杰倾力撰写,深入探讨了大型网站从初期发展到复杂系统演进的历史,以及在这个过程中中间件的重要角色。书中详细阐述了如何利用各种中间件技术来解决大型...
- **JVM(Java虚拟机)**:Java程序运行的基础,提供了跨平台的能力,使得Java代码可以在任何安装了JVM的系统上运行。 - **多线程**:Java提供内置的多线程支持,使得在分布式环境中处理并发请求变得简单。 - **...
在实践过程中,"mysite3"项目可能会遇到的问题包括但不限于:数据库的读写分离配置、API版本控制、跨域资源共享(CORS)问题、分布式事务的处理、服务间的通信延迟等。解决这些问题需要深入理解Django框架以及相关技术...
Logstash则是 Elastic 的开源数据收集引擎,能够处理多种数据源,并与Elasticsearch和Kibana配合,形成ELK技术栈,适用于快速预处理和数据分析。 Flume的工作原理主要包括Source、Channel和Sink三个组件。Source...
SpringBoot是一个轻量级的框架,它简化了Spring应用的初始搭建以及开发过程,通过内嵌的Tomcat服务器和自动配置功能,使得开发更高效、简洁。 【描述】描述中的"高并发商城秒杀系统"是电商行业中常见的一种业务场景...