elasticsearch-权威指南笔记-基础部分
参考这里的文档es权威指南
话说这个坑爹的文档是2.x版本的es,英文版本也是,所以就没啥好抱怨的了。
官方教程中有很多坑
例如,需要启动text上的索引。
还有就是get这个是不能带json的,所以很多get的操作其实都是直接用post。
关于集群
- 所有节点都是平等的,除了主节点。
- 任何节点都可接受查询并且了解所有文档所处位置。
- 默认每个分片都有一个副本,而且分布在不同的节点上,保证数据安全。
- 一个索引有多个分片,这个似乎是为了提高性能。
- 主分片数目是固定的,创建索引的时候指定,但是副本可以是随时添加的
关于文档
- es中文档就是一个数据记录,json格式
- _index, _type, _id唯一确定了一个文档
- _id基本是不冲突的
- 直接使用head就能在不返回的情况下查询文档是否存在,这个其实可以有其他的实现方式吧。
- 更新之后,旧文档就无法访问了,蛋疼,还以为这个功能可以实现版本控制。
- 可以用PUT /website/blog/123?op_type=create或者PUT /website/blog/123/_create确保创建新文档而不是更新已有文档。
- delete操作其实是更新文档版本加标记文档为已删除,这么做是为了跨节点同步,最终文档会被删除。
- 关于版本控制
- es使用版本号控制文档更新和并发
- 内部版本一定是递增的
- 可以用PUT /website/blog/1?version=1方式来指定对版本号1进行修改,如果版本号已变则操作失败,这样可以保证冲突的情况下,不会出现未知问题。
- 所有文档的更新或删除 API,都可以接受
version
参数 - 可以通过PUT /website/blog/2?version=5&version_type=external的方式来使用外部api。
- 可以通过/website/blog/1/_update这种的方式进行文档的部分更新,这个过程内部实际上就是post一个新文档过去,只不过省了一些操作而已
- update还有一种操作是可以用脚本,不过看上去都是一些比较简单的脚本,另外脚本默认是禁用的。
- update的操作,必须是已经存在的文档,如果不存在会出现错误。
- 获取多个文档,可以通过GET /_mget进行,而且灵活性比较大,可以在index下或者type下进行mget,参数是比较灵活的,而且某个文档没有不妨碍其他文档被检索到。
- bulkapi的处理有点蛋疼,它是给一个操作,指定相应的文档,然后给操作的body,一行行来的,python的api中,也遵循这个结构。
- 路由分片,也就是用hash%shards的方式,计算文档属于哪个分片,挺常用的技巧。
- 一个修改操作,将会由任何持有主分片的节点执行,但是结果会被同步转发到所有的分片副本节点,结果全部完成后才会发给客户端。
- 一个查询操作,任何主分片或者副本分片都可以响应,而且为了更大的性能,这个查询还会被负载均衡一下。
- update的请求转发,不是只转发操作,而是转发整个文档。看来es的内部通信还是挺大的流量的。
- mget内部会被分解为多个操作,由多个节点执行完后,由被访问节点构建最终的回复。
- bulk奇怪的结构是因为,这样的结构可以一边读取操作的数据,一边转发所有的操作到对应的分片节点,效率比较高。
查询
well, for search
似乎6.x开始就不能在一个index下用多个type了,7.x直接没有type了,这个倒是简洁了,不过还是有点蛋疼。
搜索的结果还是很多信息的,不过都是json的,挺好理解。
搜索的url可以用来组合多个index和type,还能用通配符。
跟mongo差不多的skip方式GET /_search?size=5&from=10
简单查询使用url参数,以get方式进行
有一个默认的_all字段,等于是一个对整个文档的组合,默认在这上面查询。
es里面有精确查询和全文查询的区别,对于文本是全文查询的,而日期之类有精确查询的功能。
倒排索引,蛋疼。。。
分析分析要索引的文档以及查询的关键词,其中包含分词器。分词器有默认的,但是我们要的是自己定义的。有些分析器支持拼音检索,或者首字母检索。
虽然说,get的查询方式带body是被es支持的,但是真心不推荐用,因为很多时候都不好用。
查询语句,貌似其本质跟mongo的真没啥太大的区别,就是形式上不太一样而已:
{
"bool": {
"must": { "match": { "tweet": "elasticsearch" }},
"must_not": { "match": { "name": "mary" }},
"should": { "match": { "tweet": "full text" }},
"filter": { "range": { "age" : { "gt" : 30 }} }
}
}
查询分为查询与过滤,查询是给结果进行排序的,而且比较慢,过滤则是直接给出结果,所以比较快。
几种基本查询:
{ "match_all": {}}
{ "match": { "age": 26 }} { "match": { "date": "2014-09-01" }} { "match": { "public": true }} { "match": { "tag": "full_text" }}
{ "multi_match": { "query": "full text search", "fields": [ "title", "body" ] } }
{ "range": { "age": { "gte": 20, "lt": 30 } } }
{ "term": { "age": 26 }} { "term": { "date": "2014-09-01" }} { "term": { "public": true }} { "term": { "tag": "full_text" }} 这个只适用于精确查询,也就是字符串不会被解析。
{ "terms": { "tag": [ "search", "full_text", "nosql" ] }}
{ "exists": { "field": "title" } } 只要有就返回,不解析内容 missing被删掉了,所以需要用bool和must_not来进行组合,蛋疼
可以用bool来组合多查询
must
文档 必须 匹配这些条件才能被包含进来。must_not
文档 必须不 匹配这些条件才能被包含进来。should
如果满足这些语句中的任意语句,将增加_score
,否则,无任何影响。它们主要用于修正每个文档的相关性得分。filter
必须 匹配,但它以不评分、过滤模式来进行。这些语句对评分没有贡献,只是根据过滤标准来排除或包含文档。这个不会被评分,很快而且内部有优化。
一个很复杂的查询。 { "bool": { "must": { "match": { "title": "how to make millions" }}, "must_not": { "match": { "tag": "spam" }}, "should": [ { "match": { "tag": "starred" }} ], "filter": { "bool": { "must": [ { "range": { "date": { "gte": "2014-01-01" }}}, { "range": { "price": { "lte": 29.99 }}} ], "must_not": [ { "term": { "category": "ebooks" }} ] } } } }
不评分的查询,很快,而且也很常用。
{ "constant_score": { "filter": { "term": { "category": "ebooks" } } } }
排序就是应用了sort关键字,但是需要注意,排序之后,不再计算score
GET /_search { "query" : { "bool" : { "filter" : { "term" : { "user_id" : 1 }} } }, "sort": { "date": { "order": "desc" }} }
Elasticsearch 的相似度算法 被定义为检索词频率/反向文档频率, TF/IDF ,包括以下内容
检索词频率 检索词在该字段出现的频率?出现频率越高,相关性也越高。 字段中出现过 5 次要比只出现过 1 次的相关性高。 反向文档频率 每个检索词在索引中出现的频率?频率越高,相关性越低。检索词出现在多数文档中会比出现在少数文档中的权重更低。 字段长度准则 字段的长度是多少?长度越长,相关性越低。 检索词出现在一个短的 title 要比同样的词出现在一个长的 content 字段权重更大。
索引管理
直接put数据就可以创建索引,但是这时候的索引是默认的,可能不具备很多特性
主分片,创建好了就不能修改了,副本可以随时扩增,甚至可以为0。
分析器的配置,看一个自定义的例子
PUT /my_index
{
"settings": {
"analysis": {
"char_filter": {
"&_to_and": {
"type": "mapping",
"mappings": [ "&=> and "]
}},
"filter": {
"my_stopwords": {
"type": "stop",
"stopwords": [ "the", "a" ]
}},
"analyzer": {
"my_analyzer": {
"type": "custom",
"char_filter": [ "html_strip", "&_to_and" ],
"tokenizer": "standard",
"filter": [ "lowercase", "my_stopwords" ]
}}
}}}
目前已经不允许在同一个索引中创建两个以上的type,7.x会直接移除type
_source作为一个保存原始文档的手段,是可以被禁用的,这个觉得有点奇怪。
dynamic可以被关掉,而且可以针对每一个field单独开关。
动态映射模板,用于默认的行为不符合我们的要求的情况下,似乎平时不太能用到,如果系统规划做的很合适的话:
PUT /my_index
{
"mappings": {
"my_type": {
"dynamic_templates": [
{ "es": {
"match": "*_es",
"match_mapping_type": "string",
"mapping": {
"type": "string",
"analyzer": "spanish"
}
}},
{ "en": {
"match": "*",
"match_mapping_type": "string",
"mapping": {
"type": "string",
"analyzer": "english"
}
}}
]
}}}
一般来说,需要事先规划好索引的mapping等,但是计划总没有变化快,偶尔还是需要对索引进行设置变更,但是既存的是无法修改设置的,所以要么重建一个,复制数据,要么就用alias建一个索引别名。alias通常更快。
感觉alias其实就是在同一份数据上,进行了不同的倒排表的创建。
步骤,有点奇怪这些json的文档描述是怎么定义的
用新的设置创建新的索引
创建alias
PUT /my_index_v2 { "mappings": { "my_type": { "properties": { "tags": { "type": "string", "index": "not_analyzed" } } } } } POST /_aliases { "actions": [ { "remove": { "index": "my_index_v1", "alias": "my_index" }}, { "add": { "index": "my_index_v2", "alias": "my_index" }} ] }
吐槽,难怪es引入版本和各种文档更新的手段,es内部的数据是写完了就不改的,新追加的数据不会导致以前的索引重建,而是直接新建一块索引,并将原来的索引加入新建的索引块,所以es中的文档可以认为都是只读的。因而查询效率比较高,但是也引入了很多的问题。
最终,所有新建的索引都会被合并优化。这是后台低优先级执行的,所以不要指望每天有大量数据写入的情况下还能很好的合并优化,除非机器资源很足。
es的文档索引并不是实时的,有个1S的间隔,但是这个一般足够长了,如果不够的话,可以手动刷新,用
POST /_refresh
POST /blogs/_refresh
另外刷新的频率是可以i设置的
PUT /my_logs
{
"settings": {
"refresh_interval": "30s"
}
}
映射
- 映射就是为了让es知道某个文档应该怎么去分析。
- 核心简单域类型
- 字符串:
text
- 整数 :
byte
,short
,integer
,long
- 浮点数:
float
,double
- 布尔型:
boolean
- 日期:
date
- 字符串:
- 6.x以后,就已经没有string了,都是text类型
- 空值不会被索引
- 话说,多层次的(nested)object会被扁平化处理,这个是内部的处理,不需要外部知道。
关于URL
url中的一些特殊字段都是有特殊含义的,例如_search, _mapping之类的。
posted on 2018-04-14 22:33 dwSun 阅读(...) 评论(...) 编辑 收藏