epoch timestamp cluster status node.total node.data shards pri relo init unassign
1400639131 10:25:31 elasticsearch green 1 1 18 18 0 0 0
2. curl 192.168.106.58:9200/_cat/nodes?v 节点健康查看
host ip heap.percent ram.percent load node.role master name
wendah1 192.168.106.58 55 59 6.65 d * Primus
3.curl 192.168.106.58:9200/_cat/indices?v 列出集群索引
health index pri rep docs.count docs.deleted store.size pri.store.size
green autoindex 6 0 1800000 0 854.4mb 854.4mb
green autoindex111 6 0 1400000 0 864.4mb 864.4mb
green product 6 0 3000000 0 1.2gb 1.2gb
4.curl -XPUT 192.168.106.58:9200/customer?pretty 创建customer索引 pretty表示打印json响应
{
"acknowledged" : true
}
5.curl -XPUT 192.168.106.58:9200/customer/external/1?pretty '-d { "name":"JOhn Doe"}' 索引数据
6.curl -XGET 192.168.106.58:9200/customer/external/1?pretty get查询数据
7. curl -XDELETE 192.168.106.58:9200/customer?pretty 删除索引
8.curl -XPUT 192.168.106.58:9200/customer/external/1?pretty '-d { "name":"JOhn Doe"}' 通过id更新索引数据
9.curl -XPOST 192.168.106.58:9200/customer/external?pretty '-d { "name":"JOhn Doe"}' 出入索引数据随机id
10.curl -XDELETE 192.168.106.58:9200/customer/external/2?pretty 通过id删除
11.curl -XDELETE '192.168.106.58:9200/customer/external/_query?pretty' -d '
{
"query": { "match": { "name": "John" } }
}' 通过查询删除
12.curl -XPOST '192.168.106.58:9200/customer/external/_bulk?pretty' -d '
{"index":{"_id":"1"}}
{"name": "John Doe" }
{"index":{"_id":"2"}}
{"name": "Jane Doe" }
'
curl -XPOST '192.168.106.58:9200/customer/external/_bulk?pretty' -d '
{"update":{"_id":"1"}}
{"doc": { "name": "John Doe becomes Jane Doe" } }
{"delete":{"_id":"2"}}
'
13 curl -XPOST '192.168.106.58:9200/bank/account/_bulk?pretty' --data-binary @accounts.json 读文件批量索引
批量索引操作
14 curl -XPOST '192.168.106.58:9200/bank/_search?pretty' -d '
{
"query": {
"bool": {
"must": [
{ "match": { "address": "mill" } },
{ "match": { "address": "lane" } }
]
}
}
}' query DSL(后期详细介绍)
15 curl 192.168.106.58:9200/_nodes/process?pretty 查看进程信息 包括打开文件数,是否锁定内存等
索引相关
URL | 说明 |
/index/_search | 不解释 |
/_aliases | 获取或操作索引的别名 |
/index/ | |
/index/type/ | 创建或操作类型 |
/index/_mapping | 创建或操作mapping |
/index/_settings | 创建或操作设置(number_of_shards是不可更改的) |
/index/_open | 打开被关闭的索引 |
/index/_close | 关闭索引 |
/index/_refresh | 刷新索引(使新加内容对搜索可见) |
/index/_flush |
刷新索引 将变动提交到lucene索引文件中 并清空elasticsearch的transaction log, 与refresh的区别需要继续研究 |
/index/_optimize | 优化segement,个人认为主要是对segement进行合并 |
/index/_status | 获得索引的状态信息 |
/index/_segments | 获得索引的segments的状态信息 |
/index/_explain | 不执行实际搜索,而返回解释信息 |
/index/_analyze | 不执行实际搜索,根据输入的参数进行文本分析 |
/index/type/id | 操作指定文档,不解释 |
/index/type/id/_create | 创建一个文档,如果该文件已经存在,则返回失败 |
/index/type/id/_update | 更新一个文件,如果改文件不存在,则返回失败 |
Distributed
URL | 说明 |
/_cluster/nodes | 获得集群中的节点列表和信息 |
/_cluster/health | 获得集群信息 |
/_cluster/state | 获得集群里的所有信息(集群信息、节点信息、mapping信息等) |
Nodes
URL | 说明 |
/_nodes/process | 我主要看file descriptor 这个信息 |
/_nodes/process/stats | 统计信息(内存、CPU能) |
/_nodes/jvm | 获得各节点的虚拟机统计和配置信息 |
/_nodes/jvm/stats | 更详细的虚拟机信息 |
/_nodes/http | 获得各个节点的http信息(如ip地址) |
/_nodes/http/stats | 获得各个节点处理http请求的统计情况 |
/_nodes/thread_pool |
获得各种类型的线程池 (elasticsearch分别对不同的操作提供不同的线程池)的配置信息 |
/_nodes/thread_pool/stats | 获得各种类型的线程池的统计信息 |
以上这些操作和可以通过如
/_nodes/${nodeId}/jvm/stats
/_nodes/${nodeip}/jvm/stats
/_nodes/${nodeattribute}/jvm/stats
的形式针对指定节点的操作。
其他
/_template/templateName 创建索引配置模板,比如默认的mapping
/_percolator/indexName/percolatorName 创建percolator(这个词怎么翻译成中文,是个问题)
/index/type/_percolate/ 对payload中指定的文档进行”反
结束语
将url列出,个人觉得,对把握整个elasticsearch的概念和系统结构很有帮助,下一步需要针对重点内容(_search必然是重点内容)逐个研究。
参考文献:http://wwwlouxuemingcom.blog.163.com/blog/static/209747822013287138100/
相关推荐
`start` 用于启动Elasticsearch,这里使用 `su` 命令切换到指定的Elasticsearch用户(例如 `es-admin`),然后进入Elasticsearch的安装目录并执行 `bin/elasticsearch` 文件以后台模式启动服务。`stop` 通过查找并杀...
Elasticsearch(ES)是一种流行的开源全文搜索引擎,它基于Lucene构建,提供了分布式、RESTful风格的搜索和分析引擎服务。在中文环境下,为了实现精确的分词和搜索,我们需要安装适合版本的分词插件,如“elastic...
1. **Elasticsearch基础**:Elasticsearch(ES)是一个开源的、分布式全文搜索引擎,它提供了实时数据分析的能力,广泛用于日志分析、监控、搜索应用等领域。其核心特性包括分布式、RESTful接口、实时性、可扩展性和...
在Elasticsearch中,数据通常以JSON文档的形式存储,这使得它与各种现代应用程序和服务高度兼容。然而,有时我们需要将这些数据整合到传统的SQL数据库,例如MySQL,以便利用其成熟的报表和分析功能。Elasticsearch...
如果你已经解压了 `elasticsearch-head-master` 文件,可以使用本地路径代替 URL 安装。 3. 安装完成后,重启 Elasticsearch 服务以使插件生效。 **使用 Head 插件** 1. 在浏览器中输入 `...
在Linux环境中,Elasticsearch作为一个强大的全文搜索引擎,广泛用于数据检索和分析。为了方便在命令行界面进行查询和操作,开发者通常会利用各种工具。"es2unix"就是这样一个工具,它将Elasticsearch的查询结果转换...
3. 修改配置文件,如`hq.py`,设置Elasticsearch集群的URL和其他选项。 4. 运行`python hq.py`启动Elasticsearch-HQ服务。 一旦部署完成,你可以在Web浏览器中访问Elasticsearch-HQ的URL,进行集群的管理和监控。这...
安装IK分词器通常需要将jar文件复制到Elasticsearch的plugins目录,然后重启Elasticsearch服务。在使用过程中,可以通过Elasticsearch的配置文件(如elasticsearch.yml)设置分词器参数,或者在创建索引时指定分词器...
1. **安装Elasticsearch**:解压elasticsearch-7.12.1压缩包到指定目录,启动服务,确保Java环境已配置。 2. **配置Elasticsearch**:根据需求修改配置文件`elasticsearch.yml`,例如设置网络监听地址、端口等。 3. ...
通常,插件安装步骤包括下载源码、配置Elasticsearch的URL、然后运行Grunt命令启动服务。启动后,通过浏览器访问指定的端口即可看到head的界面。 需要注意的是,随着Elasticsearch的发展,官方推荐使用Kibana作为...
3. commons-codec-1.9.jar:Apache Commons Codec库包含各种编码和解码算法,如Base64和URL编码,可能被Elasticsearch插件用作数据传输的辅助工具。 4. commons-logging-1.2.jar:Apache Commons Logging是Java的...
标题"Chrome浏览器查看elasticsearch head插件"指的是在Google Chrome浏览器上使用一个名为"head"的插件来查看和管理Elasticsearch(ES)集群。Elasticsearch是一个流行的开源搜索引擎和数据分析工具,而"head"插件...
1. httpclient-4.5.2.jar:Apache HttpClient库,提供了HTTP客户端编程接口,用于Elasticsearch与其他服务通信。 2. httpcore-4.4.4.jar:Apache HttpCore库,是HttpClient的基础组件,提供网络通信的基本操作。 3. ...
Elasticsearch-Head 是一款专为谷歌Chrome浏览器设计的开源插件,主要用于方便地管理和查看Elasticsearch(ES)集群的状态和数据。这款插件提供了一个直观的图形用户界面(GUI),使得用户无需编写复杂的查询语句,...
3. **启动Elasticsearch**: 运行`bin/elasticsearch.bat`启动服务。注意,Elasticsearch默认使用9200端口,如果该端口已被占用,需要修改配置文件`config/elasticsearch.yml`。 **Kibana 8.11.3** Kibana是Elastic...
连接es",这提示我们需要了解如何设置Elasticsearch-Head以连接到Elasticsearch实例。首先,确保你的Elasticsearch服务已经正确安装并运行。然后,下载或克隆elasticsearch-head项目,并在本地运行。通常,这个项目...
1. **ES节点地址**:Elasticsearch集群的URL,可能包括多个节点以实现高可用性。 2. **索引名**:要导入数据的Elasticsearch索引。 3. **类型**:在旧版本的Elasticsearch中,每个索引可以有多个类型,但在7.x及更高...
5. **启动 Elasticsearch**:进入解压后的 `bin` 目录,运行对应的 `elasticsearch.bat`(Windows)或 `elasticsearch`(Linux/Mac)脚本启动服务。 6. **验证安装**:启动 IK Head 并通过浏览器访问,确认能连接到...
Logstash 是一个数据收集引擎,能够从各种来源(如系统日志、数据库等)收集数据,进行过滤、转换,然后将清洗后的数据发送到 Elasticsearch 进行存储和分析。在 Logstash 的配置文件中,定义输入(input)、过滤器...
3. 重启Elasticsearch服务使更改生效。 4. 在索引设置中指定使用IK分词器,例如: ```json { "settings": { "analysis": { "analyzer": { "my_analyzer": { "tokenizer": "ik_max_word" } } } }, ...