一. 搭建elasticsearch
1. 上传 jdk-8u181-linux-x64.tar.gz 和 elasticsearch-6.1.4.tar.gz 文件到系统任意目录,
安装java
解压jdk-8u181-linux-x64.tar.gz文件
tar -zxvf jdk-8u181-linux-x64.tar.gz
编辑profile文件,添加jdk环境变量
vim /etc/profile
在最后添加
#JDK环境变量
JAVA_HOME=/usr/local/jdk1.8.0_181
CLASSPATH=$JAVA_HOME/lib/
PATH=$PATH:$JAVA_HOME/bin
export PATH JAVA_HOME CLASSPATH
引用环境变量
source /etc/profile
直接执行java –version 确定java已可用
解压elasticsearch-6.1.4.tar.gz文件
tar –zxvf elasticsearch-6.1.4.tar.gz
编辑修改elasticsearch的配置文件elasticsearch.yml
vim elasticsearch-6.1.4/config/elasticsearch.yml
主要修改以下信息(数据存放目录以及日志存放目录需要添加执行权限,)
配置文件解析如下:
开启服务(可以使用-d后台启用)
/usr/local/elasticsearch-6.1.4/bin/elasticsearch
乐维Tips:在启动服务时,不能以root用户开启服务,elasticsearch需要以其他用户开启服务;
1、 需要创建用户;
添加es用户
useradd es -m
设置es用户密码
passwd es
2、 需要修改elasticsearch-6.1.4目录、数据存放目录、日志存放目录的所属组和所属用户
chown es:es /usr/local/elasticsearch-6.1.4/data
chown es:es /usr/local/elasticsearch-6.1.4/logs
chown es:es /usr/local/elasticsearch-6.1.4/
3、ERROR:bootstrap checks failed:max file descriptors [4096] for elasticsearchprocess likely too low, increase to at least [65536]
原因:无法创建本地文件问题,用户最大可创建文件数太小
解决方案:
切换到root用户,编辑limits.conf配置文件,
添加类似如下内容:
vi/etc/security/limits.conf
添加如下内容:
* soft nofile 65536
* hard nofile 131072
* soft nproc 2048
* hard nproc 4096
注:* 代表Linux所有用户名称(比如hadoop)
保存、退出、重新登录才可生效
4、max virtualmemory areas vm.max_map_count [65530] likely too low, increase to at least[262144]
原因:最大虚拟内存太小
解决方案:切换到root用户下,修改配置文件sysctl.conf
vi /etc/sysctl.conf
添加下面配置:
vm.max_map_count=655360
并执行命令:sysctl -p
5、max number ofthreads [1024] for user [es] likely too low, increase to at least [2048]
原因:无法创建本地线程问题,用户最大可创建线程数太小
解决方案:
切换到root用户,进入limits.d目录下,修改90-nproc.conf 配置文件。
vi /etc/security/limits.d/90-nproc.conf
修改 * soft nproc 1024 为 * soft nproc 2048
以es用户启动服务(-d 可以后台启动 )
su es
/usr/local/elasticsearch-6.1.4/bin/elasticsearch
开启防火墙端口9200 TCP
firewall-cmd --zone=public --add-port=9200/tcp–permanent
在WEB上输入IP:9200测试是否可以正常访问使用
二. 与zabbix对接
需要修改zabbix_server的配置文件
修改HistoryStorageURL=http://192.168.150.10:9200
修改zabbix.conf.php文件
vi/usr/local/nginx/html/zabbix/conf/zabbix.conf.php
重启zabbix_server
同步成功后
方法1、ElasticSearch Head可以直接在谷歌浏览器上进行安装(推荐)
直接把文件拖到扩展程序进行添加
方法2、这里介绍一个 Elasticsearch 可视化的管理插件 elasticsearch-head,可方便的查看,删除,管理数据
安装elasticsearch-head插件需要nodejs的支持
1. nodejs安装
2. head安装配置
请参考https://blog.csdn.net/zoubf/article/details/79007908
三. Elasticsearch常用命令
(由于没有自带的数据清理功能,需要手动编写脚本)
1、curl 命令的使用
curl -X'< PROTOCOL>://:< PORT>/< PATH>?'-d ''VERB HTTP方法:GET, POST, PUT, HEAD, DELETE
PROTOCOL http或者https协议(只有在Elasticsearch前面有https代理的时候可用)
HOST Elasticsearch集群中的任何一个节点的主机名
PORT Elasticsearch HTTP服务所在的端口,默认为9200
PATH API路径,资源路径(例如_count将返回集群中文档的数量)
QUERY_STRING 一些可选的查询请求参数,例如?pretty参数将返回易读的JSON数据
BODY 一个JSON格式的请求主体(如果请求需要的话)
具体详细方法,请参考
https://www.linuxidc.com/Linux/2016-10/136548.htm
添加索引(zabbix为数据库名)
curl -XPUT'http://192.168.1.20:9090/zabbix?pretty'
创建成功后,默认会分配五个主分片(创建后不可更改,通过算法将数据存放在这五个分片中的一个,增删改都是针对主分片的)和一个复制分片(可修改,每个主分片都对应一个复制分片),这两个默认值都可以在配置文件中修改,也可以在创建的时候指定,如
curl -XPUT 'http://192.168.1.20:9090/zabbix?pretty'-d '{
"settings": {
"number_of_shards" : 2, #2个主分片
"number_of_replicas" : 0 #0个复制分片
}
}'
查看索引
curl -XGET'http://192.168.1.20:9090/zabbix?pretty'
查询方式;
例如:
查询所有文档
等同于 curl-XGET ‘http://localhost:9200/test/article/_search?pretty’
curl -XGET 'http://localhost:9200/test/article/_search?pretty' -d '
{ "query": {
"match_all": {}
}
}'#返回
{
# 用时 毫秒
"took" : 4,
"timed_out" : false,
#分片信息
"_shards" : {
"total" : 5,
"successful" : 5,
"failed" : 0
},
"hits" : {
#文档数
"total" : 3,
"max_score" : 1.0,
"hits" : [ {
"_index" : "test",
"_type" : "article",
"_id" : "AVf_6fM1vEkwGPLuUJqp",
"_score" : 1.0,
"_source" : {
"id" : 2,
"subject" : "第二篇文章标题",
"content" : "第二篇文章内容",
"author" : "jam"
}
}, {
"_index" : "test",
"_type" : "article",
"_id" : "4",
"_score" : 1.0,
"_source" : {
"id" : 4,
"subject" : "第四篇文章标题",
"content" : "第四篇文章内容-更新后",
"author" : "tomi"
}
}, {
"_index" : "test",
"_type" : "article",
"_id" : "3",
"_score" : 1.0,
"_source" : {
"id" : 3,
"subject" : "第三篇文章标题",
"content" : "第三篇文章内容",
"author" : "jam"
}
}}
查询作者是名字包含“jam” 的文档,返回id 是2和3 的文档
curl -XGET 'http://localhost:9200/test/article/_search?pretty' -d '
{
"query": {
"match": {
"author": "jam"
}
}
}'
查询文章内容包含“更新” 的文档,返回id 是4 的文档
curl -XGET 'http://localhost:9200/test/article/_search?pretty' -d '
{ "query": {
"match": {
"content": "更新"
}
}
}'
查询全部索引
curl -XGET 'http://192.168.150.10:9200/_cat/indices/?v'
删除所有数据包括自行添加的索引
curl -XDELETE 'http://192.168.150.10:9200/*'
2、 Elasticsearch清理数据
由于Elasticsearch没有自带的数据删除配置,所以需要脚本进行清理数据
1)删除索引是会立即释放空间的,不存在所谓的“标记”逻辑。
2)删除文档的时候,是将新文档写入,同时将旧文档标记为已删除。磁盘空间是否释放取决于新旧文档是否在同一个segment file里面,因此ES后台的segment merge在合并segment file的过程中有可能触发旧文档的物理删除。
但因为一个shard可能会有上百个segment file,还是有很大几率新旧文档存在于不同的segment里而无法物理删除。想要手动释放空间,只能是定期做一下force merge,并且将max_num_segments设置为1。
删除文档
释放空间
配置计划任务
文件下载:jdk-8u181-linux-x64.tar.gz、elasticsearch-6.1.4.tar.gz
密码:x6I7
转自
(出处: 乐维论坛)