1、在/server/solr/new_core/conf 目录下创建db-data-config.xml文件
配置文件:链接:https://pan.baidu.com/s/1jJqgD3C 密码:2m4j
说明:dataSource标签是数据库连接字符串,name属性作为连接字符串标识符,type是数据源类型,我们这里选用jdbc数据源JdbcDataSource,drive是数据驱动,选择MySQL数据驱动,URL是数据库连接字符串。
document标签下添加我们需要索引的数据,entity代表一个实体,name属性用来区分不同的实体,pk属性时数据表的主键,这个属性必须要和数据表主键一致,不能修改。
field标签是需要索引的字段,column是数据列,name是别名。
注意:
1.标签的name属性,该属性用来区分不同的entity,所以不能和其他的entity标签的name相同。
2.pk属性,数据库中表的主键是什么,那么pk属性的值就是什么,不能改变。
2、修改solrconfig.xml
添加配置:
4、添加需要导入的字段
5、将solr-dataimport-scheduler.jar拷贝到opt/solr-7.2.1/server/solr-webapp/webapp/WEB-INF的 lib目录下
下载地址:链接:https://pan.baidu.com/s/1gherLQz 密码:3pi6
6、将解压出来的dataimport.properties文件复制到/opt/solr-7.2.1/server/solr/conf目录下,对文件进行修改。
#################################################
# #
# dataimport scheduler properties #
# #
#################################################
# to sync or not to sync
# 1 - active; anything else - inactive
syncEnabled=1
# which cores to schedule
# in a multi-core environment you can decide which cores you want syncronized
# leave empty or comment it out if using single-core deployment
syncCores=core1,core2
# solr server name or IP address
# [defaults to localhost if empty]
server=localhost
# solr server port
# [defaults to 80 if empty]
port=8983
# application name/context
# [defaults to current ServletContextListener's context (app) name]
webapp=solr
# URL params [mandatory]
# remainder of URL
params=/dataimport?command=delta-import&clean=false&commit=true
# schedule interval
# number of minutes between two runs
# [defaults to 30 if empty]
interval=1
# 重做索引的时间间隔,单位分钟,默认7200,即5天;
# 为空,为0,或者注释掉:表示永不重做索引
reBuildIndexInterval=7200
# 重做索引的参数
reBuildIndexParams=/dataimport?command=full-import&clean=true&commit=true
# 重做索引时间间隔的计时开始时间,第一次真正执行的时间=reBuildIndexBeginTime+reBuildIndexInterval*60*1000;
# 两种格式:2012-04-11 03:10:00 或者 03:10:00,后一种会自动补全日期部分为服务启动时的日期
reBuildIndexBeginTime=03:10:00