elasticsearch API 学习

系统信息相关API

// 查看ec版本配置信息
http://localhost:9200
// 查看所有插件
http://localhost:9200/_cat/plugins?v
// 查看所有索引
http://localhost:9200/_cat/indices?v
// 对ES进行健康检查
http://localhost:9200/_cat/health?v
// 查看当前的磁盘占用率
http://localhost:9200/_cat/allocation?v

创建索引 yii2blog/articles

curl -v -X PUT "http://localhost:9200/yii2blog?pretty=true" -d "json"
curl -v -X POST "http://localhost:9200/yii2blog?pretty=true" -d "json"
{
    "settings":{
        "refresh_interval": "5s", //5秒后刷新
        "number_of_shards": 1,    //分片,目前1台机器,所以为1
        "number_of_replicas": 0   //副本为0
    },
    "mappings": {
        "_default_": {
            "_all": {
                "enabled": true   //所有数据都索引
            }
        },
        "articles": {             //名称可自定义,可定义为表名
            "dynamic": false ,    //动态映射
            "properties": {
                "article_id": {
                    "type": "long"
                },
                "post_title": {
                    "type": "string",
                    "index": "analyzed",
                    "analyzer": "ik"
                },
                "post_excerpt": {
                    "type": "string",
                    "index": "analyzed",
                    "analyzer": "ik"
                }
            }
        }
    }
}

删除索引 yii2blog/articles

curl -v -X DELETE "localhost:9200/yii2blog?pretty=true"

添加记录

curl -v X PUT "http://localhost:9200/yii2blog/articles/1?pretty=true" -d "json"
curl -v X POST "http://localhost:9200/yii2blog/articles/1?pretty=true" -d "json"
{
    "article_id" : 1,
    "post_title" : "这是文章标题",
    "post_excerpt" : "这是文章描述"
}

查看记录

curl -v X GET "http://localhost:9200/yii2blog/articles/1?pretty=true"

删除记录

curl -v X DELETE "http://localhost:9200/yii2blog/articles/1?pretty=true"

更新记录

curl -v X PUT "http://localhost:9200/yii2blog/articles/1?pretty=true" -d "json"
curl -v X POST "http://localhost:9200/yii2blog/articles/1?pretty=true" -d "json"
{
    "article_id" : 1,
    "post_title" : "更新文章标题",
    "post_excerpt" : "更新文章描述"
}

数据查询

1. 返回 elastic 中所有记录
curl -v X GET "http://localhost:9200/_search?pretty=true"
2. 返回 yii2blog 中所有记录
curl -v X GET "http://localhost:9200/yii2blog/_search?pretty=true"
3. 返回 yii2blog/articles 中所有记录
curl -v X GET "http://localhost:9200/yii2blog/articles/_search?pretty=true"

全文搜索

1. 使用 Match 查询,指定的匹配条件是 post_excerpt 字段里面包含"描述"这个词
curl -v X POST "http://localhost:9200/yii2blog/articles/_search?pretty=true" -d "json"
{
  "query" : { "match" : { "post_excerpt" : "描述" }}
}
2. 返回2两条记录(Elastic 默认一次返回10条结果)
curl -v X POST "http://localhost:9200/yii2blog/articles/_search?pretty=true" -d "json"
{
  "query" : { "match" : { "post_excerpt" : "描述" }},
  "size": 2
}
3. 从位置3开始(默认是从位置0开始),只返回5条结果。
curl -v X POST "http://localhost:9200/yii2blog/articles/_search?pretty=true" -d "json"
{
  "query" : { "match" : { "post_excerpt" : "描述" }},
  "from": 3,
  "size": 5
}
4. 搜索的是 "描述" or "文章"。
curl -v X POST "http://localhost:9200/yii2blog/articles/_search?pretty=true" -d "json"
{
  "query" : { "match" : { "post_excerpt" : "描述 文章" }}
}
5. 搜索的是 "描述" and "文章",必须使用布尔查询。
curl -v X POST "http://localhost:9200/yii2blog/articles/_search?pretty=true" -d "json"
{
    "query": {
        "bool": {
            "must": [
                { "match": { "post_excerpt": "描述" } },
                { "match": { "post_excerpt": "文章" } }
            ]
        }
    }
}
6. 使用 Match 查询,指定的匹配条件是 post_excerpt 字段里面包含带高亮的"描述"这个词
curl -v X POST "http://localhost:9200/yii2blog/articles/_search?pretty=true" -d "json"
{
  "query": {
    "multi_match": {
      "query": "描述",
      "fields": [
        "post_excerpt"
      ]
    }
  },
  "highlight": {
    "pre_tags": [
      "<b class=\"highlight\">"
    ],
    "post_tags": [
      "</b>"
    ],
    "fields": {
      "post_excerpt": {}
    }
  }
}

结果:

{
    "took": 2,
    "timed_out": false,
    "_shards": {
        "total": 1,
        "successful": 1,
        "failed": 0
    },
    "hits": {
        "total": 2,
        "max_score": 0.48288077,
        "hits": [
            {
                "_index": "yii2blog",
                "_type": "articles",
                "_id": "1",
                "_score": 0.48288077,
                "_source": {
                    "article_id": 1,
                    "post_title": "这是文章标题",
                    "post_excerpt": "这是文章描述,更新"
                },
                "highlight": {
                    "post_excerpt": [
                        "这是文章描述,<b class="highlight">更新</b>"
                    ]
                }
            },
            {
                "_index": "yii2blog",
                "_type": "articles",
                "_id": "2",
                "_score": 0.48288077,
                "_source": {
                    "article_id": 1,
                    "post_title": "这是文章标题",
                    "post_excerpt": "这是文章描述,更新"
                },
                "highlight": {
                    "post_excerpt": [
                        "这是文章描述,<b class="highlight">更新</b>"
                    ]
                }
            }
        ]
    }
}

中文分词设置

首先,安装中文分词插件。这里使用的是 ik,也可以考虑其他插件(比如 smartcn)。


$ ./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v5.5.1/elasticsearch-analysis-ik-5.5.1.zip

上面代码安装的是5.5.1版的插件,与 Elastic 5.5.1 配合使用。

接着,重新启动 Elastic,就会自动加载这个新安装的插件。

然后,新建一个 Index,指定需要分词的字段。这一步根据数据结构而异,下面的命令只针对本文。基本上,凡是需要搜索的中文字段,都要单独设置一下。


$ curl -X PUT 'localhost:9200/accounts' -d '
{
  "mappings": {
    "person": {
      "properties": {
        "user": {
          "type": "text",
          "analyzer": "ik_max_word",
          "search_analyzer": "ik_max_word"
        },
        "title": {
          "type": "text",
          "analyzer": "ik_max_word",
          "search_analyzer": "ik_max_word"
        },
        "desc": {
          "type": "text",
          "analyzer": "ik_max_word",
          "search_analyzer": "ik_max_word"
        }
      }
    }
  }
}'

上面代码中,首先新建一个名称为accounts的 Index,里面有一个名称为person的 Type。person有三个字段。

  • user
  • title
  • desc

这三个字段都是中文,而且类型都是文本(text),所以需要指定中文分词器,不能使用默认的英文分词器。

Elastic 的分词器称为 analyzer。我们对每个字段指定分词器。


"user": {
  "type": "text",
  "analyzer": "ik_max_word",
  "search_analyzer": "ik_max_word"
}

上面代码中,analyzer是字段文本的分词器,search_analyzer是搜索词的分词器。ik_max_word分词器是插件ik提供的,可以对文本进行最大数量的分词。

分词测试

1. 自带分词器 standard
curl -v -X POST "http://localhost:9200/_analyze?analyzer=standard&pretty=true" -d "这是一段汉字"

结果

{
    "tokens": [
        {
        "token": "这",
        "start_offset": 1,
        "end_offset": 2,
        "type": "<IDEOGRAPHIC>",
        "position": 0
        },
        {
        "token": "是",
        "start_offset": 2,
        "end_offset": 3,
        "type": "<IDEOGRAPHIC>",
        "position": 1
        },
        {
        "token": "一",
        "start_offset": 3,
        "end_offset": 4,
        "type": "<IDEOGRAPHIC>",
        "position": 2
        },
        {
        "token": "段",
        "start_offset": 4,
        "end_offset": 5,
        "type": "<IDEOGRAPHIC>",
        "position": 3
        },
        {
        "token": "汉",
        "start_offset": 5,
        "end_offset": 6,
        "type": "<IDEOGRAPHIC>",
        "position": 4
        },
        {
        "token": "字",
        "start_offset": 6,
        "end_offset": 7,
        "type": "<IDEOGRAPHIC>",
        "position": 5
        }
    ]
}
2. 中文分词插件 ik
curl -v -X POST "http://localhost:9200/_analyze?analyzer=ik&pretty=true" -d "这是一段汉字"

结果

{
    "tokens": [
        {
        "token": "这是",
        "start_offset": 1,
        "end_offset": 3,
        "type": "CN_WORD",
        "position": 0
        },
        {
        "token": "一段",
        "start_offset": 3,
        "end_offset": 5,
        "type": "CN_WORD",
        "position": 1
        },
        {
        "token": "一",
        "start_offset": 3,
        "end_offset": 4,
        "type": "TYPE_CNUM",
        "position": 2
        },
        {
        "token": "段",
        "start_offset": 4,
        "end_offset": 5,
        "type": "COUNT",
        "position": 3
        },
        {
        "token": "汉字",
        "start_offset": 5,
        "end_offset": 7,
        "type": "CN_WORD",
        "position": 4
        },
        {
        "token": "汉",
        "start_offset": 5,
        "end_offset": 6,
        "type": "CN_WORD",
        "position": 5
        },
        {
        "token": "字",
        "start_offset": 6,
        "end_offset": 7,
        "type": "CN_CHAR",
        "position": 6
        }
    ]
}

参考:
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,258评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,335评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,225评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,126评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,140评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,098评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,018评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,857评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,298评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,518评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,678评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,400评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,993评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,638评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,801评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,661评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,558评论 2 352

推荐阅读更多精彩内容