Elasticsearch Scroll和Slice Scroll查询API使用案例
the best elasticsearch highlevel java rest api-----[url=https://my.oschina.net/bboss/blog/1942562]bboss[/url]
[b]本文内容[/b]
[list]
[*]基本scroll api使用
[*]基本scroll api与自定义scorll结果集handler函数结合使用
[*]slice api使用(并行/串行)
[*]slice api使用与自定义scorll结果集handler函数结合使用(并行/串行)
[/list]
本文对应的maven源码工程:
[url]https://gitee.com/bbossgroups/eshelloword-booter[/url]
[b][size=medium]1.dsl配置文件定义[/size][/b]
首先定义本文需要的dsl配置文件
esmapper/scroll.xml
{
"size":#[size],
"query": {"match_all": {}}
}
]]>
{
"slice": {
"id": #[sliceId], ## 必须使用sliceId作为变量名称
"max": #[sliceMax] ## 必须使用sliceMax作为变量名称
},
"size":#[size],
"query": {"match_all": {}}
}
]]>
下面介绍scroll各种用法,对应的测试类文件为:TestScrollAPIQuery
[size=medium][b] 2.基本scroll api使用[/b][/size]
@Test
public void testSimleScrollAPI(){
ClientInterface clientUtil = ElasticSearchHelper.getConfigRestClientUtil("esmapper/scroll.xml");
//scroll分页检索
Map params = new HashMap();
params.put("size", 10000);//每页10000条记录
//scroll上下文有效期1分钟,每次scroll检索的结果都会合并到总得结果集中;数据量大时存在oom内存溢出风险,大数据量时可以采用handler函数来处理每次scroll检索的结果(后面介绍)
ESDatas
[size=medium][b]3.基本scroll api与自定义scorll结果集handler函数结合使用[/b][/size]
@Test
public void testSimleScrollAPIHandler(){
ClientInterface clientUtil = ElasticSearchHelper.getConfigRestClientUtil("esmapper/scroll.xml");
//scroll分页检索
Map params = new HashMap();
params.put("size", 5000);//每页5000条记录
//采用自定义handler函数处理每个scroll的结果集后,response中只会包含总记录数,不会包含记录集合
//scroll上下文有效期1分钟;大数据量时可以采用handler函数来处理每次scroll检索的结果,规避数据量大时存在的oom内存溢出风险
ESDatas response = clientUtil.scroll("demo/_search", "scrollQuery", "1m", params, Map.class, new ScrollHandler() {
public void handle(ESDatas response) throws Exception {//自己处理每次scroll的结果
List datas = response.getDatas();
long totalSize = response.getTotalSize();
System.out.println("totalSize:"+totalSize+",datas.size:"+datas.size());
}
});
System.out.println("response realzie:"+response.getTotalSize());
}
[size=medium][b]4.slice api使用[/b][/size]
[b] 串行[/b]
/**
* 串行方式执行slice scroll操作
*/
@Test
public void testSimpleSliceScrollApi() {
ClientInterface clientUtil = ElasticSearchHelper.getConfigRestClientUtil("esmapper/scroll.xml");
//scroll slice分页检索,max对应并行度,一般设置为与索引表的shards数一致
int max = 6;
Map params = new HashMap();
params.put("sliceMax", max);//建议不要大于索引表的shards数
params.put("size", 100);//每页100条记录
//scroll上下文有效期1分钟,每次scroll检索的结果都会合并到总得结果集中;数据量大时存在oom内存溢出风险,大数据量时可以采用handler函数来处理每次slice scroll检索的结果(后面介绍)
ESDatas sliceResponse = clientUtil.scrollSlice("demo/_search",
"scrollSliceQuery", params,"1m",Map.class,
false);//false表示串行;如果数据量大,建议采用并行方式来执行
System.out.println("totalSize:"+sliceResponse.getTotalSize());
System.out.println("realSize size:"+sliceResponse.getDatas().size());
}
[b] 并行[/b]
/**
* 并行方式执行slice scroll操作
*/
@Test
public void testSimpleSliceScrollApiParral() {
ClientInterface clientUtil = ElasticSearchHelper.getConfigRestClientUtil("esmapper/scroll.xml");
//scroll slice分页检索,max对应并行度,一般设置为与索引表的shards数一致
int max = 6;
Map params = new HashMap();
params.put("sliceMax", max);//这里设置6个slice,建议不要大于索引表的shards数,必须使用sliceMax作为变量名称
params.put("size", 100);//每页100条记录
//scroll上下文有效期2分钟,每次scroll检索的结果都会合并到总得结果集中;数据量大时存在oom内存溢出风险,大数据量时可以采用handler函数来处理每次scroll检索的结果(后面介绍)
ESDatas sliceResponse = clientUtil.scrollSlice("demo/_search",
"scrollSliceQuery", params,"2m",Map.class,
true);//true表示并行,会从slice scroll线程池中申请sliceMax个线程来并行执行slice scroll检索操作,大数据量多个shared分片的情况下建议采用并行模式
System.out.println("totalSize:"+sliceResponse.getTotalSize());
System.out.println("realSize size:"+sliceResponse.getDatas().size());
}
[size=medium][b]5.slice api使用与自定义scorll结果集handler函数结合使用[/b][/size]
[b]串行[/b]
/**
* 串行方式执行slice scroll操作
*/
@Test
public void testSimpleSliceScrollApiHandler() {
ClientInterface clientUtil = ElasticSearchHelper.getConfigRestClientUtil("esmapper/scroll.xml");
//scroll slice分页检索,max对应并行度,一般设置为与索引表的shards数一致
int max = 6;
Map params = new HashMap();
params.put("sliceMax", max);//这里设置6个slice,建议不要大于索引表的shards数,必须使用sliceMax作为变量名称
params.put("size", 1000);//每页1000条记录
//采用自定义handler函数处理每个slice scroll的结果集后,sliceResponse中只会包含总记录数,不会包含记录集合
//scroll上下文有效期1分钟,大数据量时可以采用handler函数来处理每次scroll检索的结果,规避数据量大时存在的oom内存溢出风险
ESDatas sliceResponse = clientUtil.scrollSlice("demo/_search",
"scrollSliceQuery", params,"1m",Map.class, new ScrollHandler() {
public void handle(ESDatas response) throws Exception {//自己处理每次scroll的结果
List datas = response.getDatas();
long totalSize = response.getTotalSize();
System.out.println("totalSize:"+totalSize+",datas.size:"+datas.size());
}
},
false);//false表示串行,如果数据量大建议采用并行模式
long totalSize = sliceResponse.getTotalSize();
System.out.println("totalSize:"+totalSize);
}
[b]并行[/b]
/**
* 并行方式执行slice scroll操作
*/
@Test
public void testSimpleSliceScrollApiParralHandler() {
ClientInterface clientUtil = ElasticSearchHelper.getConfigRestClientUtil("esmapper/scroll.xml");
//scroll slice分页检索,max对应并行度,一般设置为与索引表的shards数一致
int max = 6;
Map params = new HashMap();
params.put("sliceMax", max);//这里设置6个slice,建议不要大于索引表的shards数,必须使用sliceMax作为变量名称
params.put("size", 1000);//每页1000条记录
//采用自定义handler函数处理每个slice scroll的结果集后,sliceResponse中只会包含总记录数,不会包含记录集合
//scroll上下文有效期1分钟,大数据量时可以采用handler函数来处理每次scroll检索的结果,规避数据量大时存在的oom内存溢出风险
ESDatas sliceResponse = clientUtil.scrollSlice("demo/_search",
"scrollSliceQuery", params,"1m",Map.class, new ScrollHandler() {
public void handle(ESDatas response) throws Exception {//自己处理每次scroll的结果,注意结果是异步检索的
List datas = response.getDatas();
long totalSize = response.getTotalSize();
System.out.println("totalSize:"+totalSize+",datas.size:"+datas.size());
}
},
true);//true表示并行,会从slice scroll线程池中申请sliceMax个线程来并行执行slice scroll检索操作,大数据量多个shared分片的情况下建议采用并行模式
long totalSize = sliceResponse.getTotalSize();
System.out.println("totalSize:"+totalSize);
}
我们可以在application.properties文件中增加以下配置来设置slice scroll查询线程池线程数和等待队列长度:
[color=blue]elasticsearch.sliceScrollThreadCount 默认值500
elasticsearch.sliceScrollThreadQueue 默认值500[/color]
[b]6 开发交流[/b]
elasticsearch技术交流群:166471282
elasticsearch微信公众号:
[img]https://static.oschina.net/uploads/space/2017/0617/094201_QhWs_94045.jpg[/img]