SpringBoot + Mybatis + Druid + PageHelper在多数据源下如何配置并实现分页

前言

本篇文章主要讲述的是SpringBoot整合Mybatis、Druid和PageHelper 并实现多数据源和分页。其中SpringBoot整合Mybatis这块,在之前的的一篇文章中已经讲述了,这里就不过多说明了。重点是讲述在多数据源下的如何配置使用Druid和PageHelper 。

SpringBoot + Mybatis + Druid + PageHelper学习笔记和最新面试题

Druid介绍和使用

在使用Druid之前,先来简单的了解下Druid。

Druid是一个数据库连接池。Druid可以说是目前最好的数据库连接池!因其优秀的功能、性能和扩展性方面,深受开发人员的青睐。

Druid已经在阿里巴巴部署了超过600个应用,经过一年多生产环境大规模部署的严苛考验。Druid是阿里巴巴开发的号称为监控而生的数据库连接池!

同时Druid不仅仅是一个数据库连接池,Druid 核心主要包括三部分:

  • 基于Filter-Chain模式的插件体系。
  • DruidDataSource 高效可管理的数据库连接池。
  • SQLParser

Druid的主要功能如下:

  • 是一个高效、功能强大、可扩展性好的数据库连接池。
  • 可以监控数据库访问性能。
  • 数据库密码加密
  • 获得SQL执行日志
  • 扩展JDBC

介绍方面这块就不再多说,具体的可以看官方文档。那么开始介绍Druid如何使用。

首先是Maven依赖,只需要添加druid这一个jar就行了。

         com.alibaba         druid         1.1.8  

配置方面,主要的只需要在application.properties或application.yml添加如下就可以了。

说明:因为这里我是用来两个数据源,所以稍微有些不同而已。Druid 配置的说明在下面中已经说的很详细了,这里我就不在说明了。
# 默认的数据源master.datasource.url=jdbc:mysql://localhost:3306/springBoot?useUnicode=true&characterEncoding=utf8&allowMultiQueries=truemaster.datasource.username=rootmaster.datasource.password=123456master.datasource.driverClassName=com.mysql.jdbc.Driver
# 另一个的数据源cluster.datasource.url=jdbc:mysql://localhost:3306/springBoot_test?useUnicode=true&characterEncoding=utf8cluster.datasource.username=rootcluster.datasource.password=123456cluster.datasource.driverClassName=com.mysql.jdbc.Driver
# 连接池的配置信息# 初始化大小,最小,最大spring.datasource.type=com.alibaba.druid.pool.DruidDataSourcespring.datasource.initialSize=5spring.datasource.minIdle=5spring.datasource.maxActive=20
# 配置获取连接等待超时的时间spring.datasource.maxWait=60000
# 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒spring.datasource.timeBetweenEvictionRunsMillis=60000
# 配置一个连接在池中最小生存的时间,单位是毫秒spring.datasource.minEvictableIdleTimeMillis=300000spring.datasource.validationQuery=SELECT 1 FROM DUALspring.datasource.testWhileIdle=truespring.datasource.testOnBorrow=falsespring.datasource.testOnReturn=false# 打开PSCache,并且指定每个连接上PSCache的大小spring.datasource.poolPreparedStatements=truespring.datasource.maxPoolPreparedStatementPerConnectionSize=20
# 配置监控统计拦截的filters,去掉后监控界面sql无法统计,'wall'用于防火墙spring.datasource.filters=stat,wall,log4j# 通过connectProperties属性来打开mergeSql功能;慢SQL记录spring.datasource.connectionProperties=druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000

成功添加了配置文件之后,我们再来编写Druid相关的类。

首先是MasterDataSourceConfig.java这个类,这个是默认的数据源配置类。

@Configuration
@MapperScan(basePackages = MasterDataSourceConfig.PACKAGE, sqlSessionFactoryRef = "masterSqlSessionFactory")public class MasterDataSourceConfig {    static final String PACKAGE = "com.pancm.dao.master";    static final String MAPPER_LOCATION = "classpath:mapper/master/*.xml";    
@Value("${master.datasource.url}")    private String url;    
@Value("${master.datasource.username}")    private String username;    
@Value("${master.datasource.password}")    private String password;    
@Value("${master.datasource.driverClassName}")    private String driverClassName;    
@Value("${spring.datasource.initialSize}")    private int initialSize;    
@Value("${spring.datasource.minIdle}")    private int minIdle;    
@Value("${spring.datasource.maxActive}")    private int maxActive;   
@Value("${spring.datasource.maxWait}")    private int maxWait;    
@Value("${spring.datasource.timeBetweenEvictionRunsMillis}")    private int timeBetweenEvictionRunsMillis;    
@Value("${spring.datasource.minEvictableIdleTimeMillis}")    private int minEvictableIdleTimeMillis;    
@Value("${spring.datasource.validationQuery}")    private String validationQuery;    
@Value("${spring.datasource.testWhileIdle}")    private boolean testWhileIdle;    
@Value("${spring.datasource.testOnBorrow}")    private boolean testOnBorrow;    
@Value("${spring.datasource.testOnReturn}")    private boolean testOnReturn;    
@Value("${spring.datasource.poolPreparedStatements}")    private boolean poolPreparedStatements;    
@Value("${spring.datasource.maxPoolPreparedStatementPerConnectionSize}")    private int maxPoolPreparedStatementPerConnectionSize;    
@Value("${spring.datasource.filters}")    private String filters;    
@Value("{spring.datasource.connectionProperties}")    private String connectionProperties;    
@Bean(name = "masterDataSource")    
@Primary    
public DataSource masterDataSource() {        
DruidDataSource dataSource = new DruidDataSource();        
dataSource.setUrl(url);        
dataSource.setUsername(username);       
 dataSource.setPassword(password);        
dataSource.setDriverClassName(driverClassName);        //具体配置        
dataSource.setInitialSize(initialSize);        
dataSource.setMinIdle(minIdle);        
dataSource.setMaxActive(maxActive);        
dataSource.setMaxWait(maxWait);        
dataSource.setTimeBetweenEvictionRunsMillis(timeBetweenEvictionRunsMillis);        
dataSource.setMinEvictableIdleTimeMillis(minEvictableIdleTimeMillis);        
dataSource.setValidationQuery(validationQuery);        
dataSource.setTestWhileIdle(testWhileIdle);        
dataSource.setTestOnBorrow(testOnBorrow);        
dataSource.setTestOnReturn(testOnReturn);       
dataSource.setPoolPreparedStatements(poolPreparedStatements);        
dataSource.setMaxPoolPreparedStatementPerConnectionSize(maxPoolPreparedStatementPerConnectionSize);        
try {            dataSource.setFilters(filters);       
 } catch (SQLException e) {           
 e.printStackTrace();       
 }        dataSource.setConnectionProperties(connectionProperties);        
return dataSource;    }  

  
@Bean(name = "masterTransactionManager")    
@Primary    public DataSourceTransactionManager masterTransactionManager() {       
 return new DataSourceTransactionManager(masterDataSource());    }    

@Bean(name = "masterSqlSessionFactory")    
@Primary    public SqlSessionFactory masterSqlSessionFactory(@Qualifier("masterDataSource") DataSource masterDataSource)            throws Exception {       
 final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();        sessionFactory.setDataSource(masterDataSource);       
 sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()                
.getResources(MasterDataSourceConfig.MAPPER_LOCATION));        return sessionFactory.getObject();    }}

其中这两个注解说明下:

  • @Primary :标志这个 Bean 如果在多个同类 Bean 候选时,该 Bean 优先被考虑。多数据源配置的时候注意,必须要有一个主数据源,用 @Primary 标志该 Bean。
  • @MapperScan:扫描 Mapper 接口并容器管理。
需要注意的是sqlSessionFactoryRef 表示定义一个唯一 SqlSessionFactory 实例。

上面的配置完之后,就可以将Druid作为连接池使用了。但是Druid并不简简单单的是个连接池,它也可以说是一个监控应用,它自带了web监控界面,可以很清晰的看到SQL相关信息。

在SpringBoot中运用Druid的监控作用,只需要编写StatViewServlet和WebStatFilter类,实现注册服务和过滤规则。这里我们可以将这两个写在一起,使用@Configuration和@Bean。

为了方便理解,相关的配置说明也写在代码中了,这里就不再过多赘述了。

代码如下:

@Configurationpublic class DruidConfiguration {    
@Bean    public ServletRegistrationBean druidStatViewServle() {        

//注册服务        ServletRegistrationBean servletRegistrationBean = new ServletRegistrationBean(               
 new StatViewServlet(), "/druid/*");      
  
// 白名单(为空表示,所有的都可以访问,多个IP的时候用逗号隔开)        servletRegistrationBean.addInitParameter("allow", "127.0.0.1");        
// IP黑名单 (存在共同时,deny优先于allow)        servletRegistrationBean.addInitParameter("deny", "127.0.0.2");        
// 设置登录的用户名和密码        servletRegistrationBean.addInitParameter("loginUsername", "pancm");        servletRegistrationBean.addInitParameter("loginPassword", "123456");        
// 是否能够重置数据.        servletRegistrationBean.addInitParameter("resetEnable", "false");       
 return servletRegistrationBean;    }    
@Bean    public FilterRegistrationBean druidStatFilter() {        
FilterRegistrationBean filterRegistrationBean = new FilterRegistrationBean(                new WebStatFilter());        
// 添加过滤规则        filterRegistrationBean.addUrlPatterns("/*");        
// 添加不需要忽略的格式信息        filterRegistrationBean.addInitParameter("exclusions",               
 "*.js,*.gif,*.jpg,*.png,*.css,*.ico,/druid/*");        System.out.println("druid初始化成功!");        return filterRegistrationBean;    }}

编写完之后,启动程序,在浏览器输入:http://127.0.0.1:8084/druid/i... ,然后输入设置的用户名和密码,便可以访问Web界面了。

多数据源配置

在进行多数据源配置之前,先分别在springBoot和springBoot_test的mysql数据库中执行如下脚本。

-- springBoot库的脚本CREATE TABLE `t_user` 
(  `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '自增id',  `name` varchar(10) DEFAULT NULL COMMENT '姓名',  `age` in
t(2) DEFAULT NULL COMMENT '年龄',  PRIMARY KEY (`id`)) ENGINE=InnoDB AUTO_INCREMENT=15 DEFAULT 
CHARSET=utf8-- springBoot_test库的脚本CREATE TABLE `t_student` (  `id` int(11) NOT NULL AUTO_INCREMENT,  
`name` varchar(16) DEFAULT NULL,  `age` int(11) DEFAULT NULL,  
PRIMARY KEY (`id`)) ENGINE=InnoDB AUTO_INCREMENT=2 DEFAULT CHARSET=utf8
注:为了偷懒,将两张表的结构弄成一样了!不过不影响测试!

在application.properties中已经配置这两个数据源的信息,上面已经贴出了一次配置,这里就不再贴了。

这里重点说下 第二个数据源的配置。和上面的MasterDataSourceConfig.java差不多,区别在与没有使用@Primary 注解和名称不同而已。需要注意的是MasterDataSourceConfig.java对package和mapper的扫描是精确到目录的,这里的第二个数据源也是如此。

那么代码如下:

@Configuration@MapperScan(basePackages 
= ClusterDataSourceConfig.PACKAGE, sqlSessionFactoryRef 
= "clusterSqlSessionFactory")public class ClusterDataSourceConfig { static final String PACKAGE 
= "com.pancm.dao.cluster"; static final String MAPPER_LOCATION = "classpath:mapper/cluster/*.xml"; 
@Value("${cluster.datasource.url}") private String url; 
@Value("${cluster.datasource.username}") private String username; 
@Value("${cluster.datasource.password}") private String password; 
@Value("${cluster.datasource.driverClassName}") private String driverClass; 
// 和MasterDataSourceConfig一样,这里略 @Bean(name 
= "clusterDataSource") public DataSource clusterDataSource() {     DruidDataSource dataSource 
= new DruidDataSource();    
 dataSource.setUrl(url);     
dataSource.setUsername(username);     
dataSource.setPassword(password);    
 dataSource.setDriverClassName(driverClass);     /
/ 和MasterDataSourceConfig一样,这里略 ...     
return dataSource; } @Bean(name 
= "clusterTransactionManager") public DataSourceTransactionManager clusterTransactionManager() {   
  return new DataSourceTransactionManager(clusterDataSource()); } @Bean(name 
= "clusterSqlSessionFactory") public SqlSessionFactory clusterSqlSessionFactory(@Qualifier("clusterDataS
ource") DataSource clusterDataSource)         throws Exception {     final SqlSessionFactoryBean 
sessionFactory 
= new SqlSessionFactoryBean();     sessionFactory.setDataSource(clusterDataSource);     sessionFactory.s
etMapperLocations(new PathMatchingResourcePatternResolver().getResources(ClusterDataSourceConfig.
MAPPER_LOCATION));     return sessionFactory.getObject(); }}

成功写完配置之后,启动程序,进行测试。

分别在springBoot和springBoot_test库中使用接口进行添加数据。

t_user

POST http://localhost:8084/api/user{"name":"张三","age":25}{"name":"李四","age":25}{"name":"王五","age":25}

t_student

POST http://localhost:8084/api/student{"name":"学生A","age":16}{"name":"学生B","age":17}{"name":"学生C","age":18}

成功添加数据之后,然后进行调用不同的接口进行查询。

请求:

GET http://localhost:8084/api/use...

返回:

{    "id": 2,    "name": "李四",    "age": 25}

请求:

GET http://localhost:8084/api/stu...

返回:

{    "id": 1,    "name": "学生C",    "age": 16}

通过数据可以看出,成功配置了多数据源了。

PageHelper 分页实现

PageHelper是Mybatis的一个分页插件,非常的好用!这里强烈推荐!!!

PageHelper的使用很简单,只需要在Maven中添加pagehelper这个依赖就可以了。

Maven的依赖如下:

   
com.github.pagehelper   
pagehelper-spring-boot-starter 
  1.2.3
注:这里我是用springBoot版的!也可以使用其它版本的。

添加依赖之后,只需要添加如下配置或代码就可以了。

第一种,在application.properties或application.yml添加

pagehelper:  helperDialect: mysql  offsetAsPageNum: true  rowBoundsWithCount: true  reasonable: false

第二种,在mybatis.xml配置中添加:

        
                    

你可能感兴趣的:(SpringBoot + Mybatis + Druid + PageHelper在多数据源下如何配置并实现分页)