目录
3、Mysql复制
3.1、复制
3.2、复制原理
3.3、复制优势
3.4、搭建步骤
4.1、需求分析
4.3、通过AOP记录操作日志
4.4 日志查询后端代码实现
4.5 日志查询前端代码实现
4.6 联调测试
4.7 分析性能问题
4.8 性能优化 - 分页
4.9 性能优化 - 索引
4.10 性能优化 - 排序
4.11 性能优化 - 读写分离
4.12 性能优化 - 应用优化
复制是指将主数据库的DDL和DML操作通过二进制日志传到从库服务器中,然后在从库上对这些日志重新执行(也叫重做),从而使得从库和主库的数据保持同步。
MySQL支持一台主库同时向多台从库进行复制,从库同时也可以作为其他从服务器的主库,实现链状复制。
MySQL的主从复制原理如下。
从上层来看,复制分成三步:
·Master 主库在事务提交时,会把数据变更作为时间Events 记录在二进制日志文件Binlog中。
·主库推送二进制日志文件Binlog中的日志事件到从库的中继日志RelayLog。
·slave重做中继日志中的事件,将改变反映它自己的数据。
MySQL 复制的有点主要包含以下三个方面:
- ·主库出现问题,可以快速切换到从库提供服务。
- ·可以在从库上执行查询操作,从主库中更新,实现读写分离,降低主库的访问压力。
- ·可以在从库中执行备份,以避免备份期间影响主库的服务。
3.4.1、master
1)在master的配置文件(/etc/my.cnf)中,配置如下内容:
2)执行完毕之后,需要重启Mysql:
systemctl restart mysqld
3)创建同步数据的账户,并且进行授权操作:
grant replication slave on *.* to ' root'@'192.168.192.131' identified by 'root';
flush privileges;
4)查看master状态:
show master status
- File:从哪个日志文件开始推送日志文件
- Position:从哪个位置开始推送日志
- Binlog_Ignore_DB:指定不需要同步的数据库
3.4.2、slave
1)在slave 端配置文件中,配置如下内容:
2)执行完毕之后,需要重启Mysql:
systemctl restart mysqld
3)执行如下指令:
change master to master-host='192.168.192.130', master_user=' root', master_password='root', master_log_file=' mysqlbin.000001', master_log_pos=413;
指定当前从库对应的主库的IP地址,用户名,密码,从哪个日志文件开始的那个位置开始同步推送日志。
4)开启同步操作
start slave;
show slave status;
5)停止同步操作
stop slave;
3.4.3、验证同步操作
1)在主库中创建数据库,创建表,并插入数据:
create database db01;
user db01;
create table user(
id int(11)not null auto_increment,
name varchar(50)not nu11,
sex varchar(1),
primary key (id)
)engine=innodb default charset=utf8;
insert into user(id,name,sex)values(null,'Tom','1');
insert into user(id,name,sex)values(null,'Trigger','0');
insert into user(id,name,sex)values(null,'Dawn','1');
2)在从库中查询数据,进行验证:
在从库中,可以查看到刚才创建的数据库:
在该数据库中,查询user表中的数据:
在业务系统中,需要记录当前业务系统的访问日志,该访问日志包含:操作人,操作时间,访问类,访问方法,请求参数,请求结果,请求结果类型,请求时长等信息。记录详细的系统访问日志,主要便于对系统中的用户请求进行追踪,并且在系统的管理后台可以查看到用户的访问记录。
记录系统中的日志信息,可以通过Spring框架的AOP来实现。具体的请求处理流程,如下:
CREATE TABLE brand(
id bigint(20) NOT NULL AUTO_INCREMENT,
name varchar(255)DEFAULT NULL COMMENT '品牌名称',
first_char varchar(1) DEFAULT NULL COMMENT '品牌首字母',
PRIMARY KEY(id)
)ENGINE=InnoDB DEFAULT CHARSET=utf8;
CREATE TABLE item(
id int(11)NOT NULL AUTO_INCREMENT COMMENT '商品id',
title varchar(100)NOT NULL COMMENT '商品标题',
price double(10, 2)NOT NULL COMMENT '商品价格, 单位为:元',
num int(10)NOT NULL COMMENT '库存数量',
categoryid bigint(10)NOT NULL COMMENT '所属类目, 叶子类目',
status varchar(1)DEFAULT NULL COMMENT '商品状态, 1-正常, 2-下架, 3-删除',
sellerid varchar(50)DEFAULT NULL COMMENT '商家ID',
createtime datetime DEFAULT NULL COMMENT '创建时间',
updatetime datetime DEFAULT NULL COMMENT '更新时间',
PRIMARY KEY(id)
)ENGINE=InnoDB DEFAULT CHARSET=utf8 COMMENT='商品表';
CREATE TABLE user(
id int(11)NOT NULL AUTO_INCREMENT,
username varchar(45)NOT NULL,
password varchar(96)NOT NULL,
name varchar(45)NOT NULL,
birthday datetime DEFAULT NULL,
sex char(1)DEFAULT NULL,
email varchar(45)DEFAULT NULL,
phone varchar(45)DEFAULT NULL,
qq varchar(32)DEFAULT NULL,
PRIMARY KEY(id)
)ENGINE=InnoDB DEFAULT CHARSET=utf8;
CREATE TABLE operation_1og(
id bigint(20)NOT NULL AUTO_INCREMENT COMMENT 'ID',
operate_class varchar(200)DEFAULT NULL COMMENT '操作类',
operate_method varchar(200)DEFAULT NULL COMMENT '操作方法',
return_class varchar(200)DEFAULT NULL COMMENT'返回值类型',
operate_user varchar(20)DEFAULT NULL COMMENT '操作用户',
operate_time varchar(20)DEFAULT NULL COMMENT '操作时间',
param_and_value varchar(500)DEFAULT NULL COMMENT '请求参数名及参数值',
cost_time bigint(20)DEFAULT NULL COMMENT '执行方法耗时, 单位ms',
return_value varchar(200)DEFAULT NULL COMMENT'返回值',
PRIMARY KEY(id)
)ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
pom.xml
UTF-8
1.7
1.7
UTF-8
1.8
1.8
5.0.2.RELEASE
1.6.6
1.2.12
3.4.5
org.aspectj
aspectjweaver
1.6.8
org.projectlombok
lombok
1.16.16
org.springframework
spring-context
${spring.version}
org.springframework
spring-context-support
${spring.version}
org.springframework
spring-orm
${spring.version}
org.springframework
spring-test
${spring.version}
org.springframework
spring-webmvc
${spring.version}
org.springframework
spring-tx
${spring.version}
junit
junit
4.12
test
javax.servlet
javax.servlet-api
3.1.0
provided
javax.servlet.jsp
jsp-api
2.0
provided
log4j
log4j
${log4j.version}
org.mybatis
mybatis
${mybatis.version}
org.mybatis
mybatis-spring
1.3.0
c3p0
c3p0
0.9.1.2
mysql
mysql-connector-java
5.1.5
com.fasterxml.jackson.core
jackson-core
2.9.0
com.fasterxml.jackson.core
jackson-databind
2.9.0
com.fasterxml.jackson.core
jackson-annotations
2.9.0
org.apache.tomcat.maven
tomcat7-maven-plugin
2.2
8080
/
utf-8
web.xml
CharacterEncodingFilter
org.springframework.web.filter.CharacterEncodingFilter
encoding
utf-8
forceEncoding
true
CharacterEncodingFilter
/*
contextConfigLocation
classpath:applicationContext.xml
org.springframework.web.context.ContextLoaderListener
springmvc
org.springframework.web.servlet.DispatcherServlet
contextConfigLocation
classpath:springmvc.xml
springmvc
*.do
log-datalist.html
db.properties
jdbc.driver=com.mysql.jdbc.Driver
jdbc.url=jdbc:mysql://192.168.142.128:3306/mysql_demo
jdbc.username=root
jdbc.password=itcast
applicationContext.xml
springmvc.xml
4.3.1 自定义注解
通过自定义注解,来标示方法需不需要进行记录日志,如果该方法在访问时需要记录日志,则在该方法上标示该注
解既可。
@Inherited
@Documented
@Target(ElementType.METHOD)
@Retention(RetentionPolicy.RUNTIME)
public @interface OperateLog {
}
4.3.2 定义通知类
@Component
@Aspect
public class OperateAdvice {
private static Logger log = Logger.getLogger(OperateAdvice.class);
@Autowired
private OperationLogService operationLogService;
@Around("execution(* cn.itcast.controller.*.*(..)) && @annotation(operateLog)")
public Object insertLogAround(ProceedingJoinPoint pjp , OperateLog operateLog)
throws Throwable{
System.out.println(" ************************ 记录日志 [start]
****************************** ");
OperationLog op = new OperationLog();
DateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
op.setOperateTime(sdf.format(new Date()));
op.setOperateUser(DataUtils.getRandStr(8));
op.setOperateClass(pjp.getTarget().getClass().getName());
op.setOperateMethod(pjp.getSignature().getName());
//获取方法调用时传递的参数
Object[] args = pjp.getArgs();
op.setParamAndValue(Arrays.toString(args));
long start_time = System.currentTimeMillis();
//放行
Object object = pjp.proceed();
long end_time = System.currentTimeMillis();
op.setCostTime(end_time - start_time);
if(object != null){
op.setReturnClass(object.getClass().getName());
op.setReturnValue(object.toString());
}else{
op.setReturnClass("java.lang.Object");
op.setParamAndValue("void");
}
log.error(JsonUtils.obj2JsonString(op));
operationLogService.insert(op);
System.out.println(" ************************** 记录日志 [end]
*************************** ");
return object;
}
}
4.3.3 方法上加注解
在需要记录日志的方法上加上注解@OperateLog。
@OperateLog
@RequestMapping("/insert")
public Result insert(@RequestBody Brand brand){
try {
brandService.insert(brand);
return new Result(true,"操作成功");
} catch (Exception e) {
e.printStackTrace();
return new Result(false,"操作失败");
}
}
4.4.1 Mapper接口
public interface OperationLogMapper {
public void insert(OperationLog operationLog);
public List selectListByCondition(Map dataMap);
public Long countByCondition(Map dataMap);
}
4.4.2 Mapper.xml 映射配置文件
INSERT INTO
operation_log(id,return_value,return_class,operate_user,operate_time,param_and_valu
e,
operate_class,operate_method,cost_time)
VALUES(NULL,#{returnValue},#{returnClass},#{operateUser},#{operateTime},#
{paramAndValue},
#{operateClass},#{operateMethod},#{costTime})
and operate_class = #{operateClass}
and operate_method = #{operateMethod}
and return_class = #{returnClass}
and cost_time = #{costTime}
4.4.3 Service
@Service
@Transactional
public class OperationLogService {
//private static Logger logger = Logger.getLogger(OperationLogService.class);
@Autowired
private OperationLogMapper operationLogMapper;
//插入数据
public void insert(OperationLog operationLog){
operationLogMapper.insert(operationLog);
}
//根据条件查询
public PageResult selectListByCondition(Map dataMap, Integer pageNum , Integer
pageSize){
if(paramMap ==null){
paramMap = new HashMap();
}
paramMap.put("start" , (pageNum-1)*rows);
paramMap.put("rows",rows);
Object costTime = paramMap.get("costTime");
if(costTime != null){
if("".equals(costTime.toString())){
paramMap.put("costTime",null);
}else{
paramMap.put("costTime",new
Long(paramMap.get("costTime").toString()));
}
}
System.out.println(dataMap);
long countStart = System.currentTimeMillis();
Long count = operationLogMapper.countByCondition(dataMap);
long countEnd = System.currentTimeMillis();
System.out.println("Count Cost Time : " + (countEnd-countStart)+" ms");
List list =
operationLogMapper.selectListByCondition(dataMap);
long queryEnd = System.currentTimeMillis();
System.out.println("Query Cost Time : " + (queryEnd-countEnd)+" ms");
return new PageResult(count,list);
}
}
4.4.4 Controller
@RestController
@RequestMapping("/operationLog")
public class OperationLogController {
@Autowired
private OperationLogService operationLogService;
@RequestMapping("/findList")
public PageResult findList(@RequestBody Map dataMap, Integer pageNum , Integer
pageSize){
PageResult page = operationLogService.selectListByCondition(dataMap,
pageNum, pageSize);
return page;
}
}
前端代码使用 BootStrap + AdminLTE 进行布局, 使用Vuejs 进行视图层展示。
4.5.1 js
4.5.2 列表数据展示
{{item.id}}
{{item.operateClass}}
{{item.operateMethod}}
{{item.returnClass}}
{{item.returnValue}}
{{item.operateUser}}
{{item.operateTime}}
{{item.costTime}}
4.5.3 分页插件
可以通过postman来访问业务系统,再查看数据库中的日志信息,验证能不能将用户的访问日志记录下来。
系统中用户访问日志的数据量,随着时间的推移,这张表的数据量会越来越大,因此需要根据业务需求,来对
日志查询模块的性能进行优化。
1) 分页查询优化
由于在进行日志查询时,是进行分页查询,那也就意味着,在查看时,至少需要查询两次:
- A. 查询符合条件的总记录数。--> count 操作
- B. 查询符合条件的列表数据。--> 分页查询 limit 操作
通常来说,count() 都需要扫描大量的行(意味着需要访问大量的数据)才能获得精确的结果,因此是很难对该
SQL进行优化操作的。如果需要对count进行优化,可以采用另外一种思路,可以增加汇总表,或者redis缓存来专门记录该表对应的记录数,这样的话,就可以很轻松的实现汇总数据的查询,而且效率很高,但是这种统计并不能保证百分之百的准确 。
对于数据库的操作,“快速、精确、实现简单”,三者永远只能满足其二,必须舍掉其中一
个。
2) 条件查询优化
针对于条件查询,需要对查询条件,及排序字段建立索引。
3) 读写分离
通过主从复制集群,来完成读写分离,使写操作走主节点, 而读操作,走从节点。
4) MySQL服务器优化
5) 应用优化
4.8.1 优化count
创建一张表用来记录日志表的总数据量:
create table log_counter(
logcount bigint not null
)engine = innodb default CHARSET = utf8;
在每次插入数据之后,更新该表 :
update log_counter set logcount = logcount + 1
在进行分页查询时, 获取总记录数,从该表中查询既可。
4.8.2 优化 limit
在进行分页时,一般通过创建覆盖索引,能够比较好的提高性能。一个非常常见,而又非常头疼的分页场景就是
"limit 1000000,10" ,此时MySQL需要搜索出前1000010 条记录后,仅仅需要返回第 1000001 到 1000010 条记
录,前1000000 记录会被抛弃,查询代价非常大
当点击比较靠后的页码时,就会出现这个问题,查询效率非常慢。
优化SQL:
select * from operation_log limit 3000000 , 10;
将上述SQL优化为 :
select * from operation_log t , (select id from operation_log order by id limit
3000000,10) b where t.id = b.id ;
当根据操作人进行查询时, 查询的效率很低,耗时比较长。原因就是因为在创建数据库表结构时,并没有针对于
操作人 字段建立索引。
CREATE INDEX idx_user_method_return_cost ON
operation_log(operate_user,operate_method,return_class,cost_time);
同上 , 为了查询效率高,也需要对 操作方法、返回值类型、操作耗时 等字段进行创建索引,以提高查询效
率。
CREATE INDEX idx_optlog_method_return_cost ON
operation_log(operate_method,return_class,cost_time);
CREATE INDEX idx_optlog_return_cost ON operation_log(return_class,cost_time);
CREATE INDEX idx_optlog_cost ON operation_log(cost_time);
在查询数据时,如果业务需求中需要对结果内容进行了排序处理 , 还需要对排序的字段建立适当的索引, 来提高排序的效率 。
4.11.1 概述
在Mysql主从复制的基础上,可以使用读写分离来降低单台Mysql节点的压力,从而来提高访问效率,读写分离的
架构如下:
对于读写分离的实现,可以通过Spring AOP 来进行动态的切换数据源,进行操作 :
4.11.2 实现方式
db.properties
jdbc.write.driver=com.mysql.jdbc.Driver
jdbc.write.url=jdbc:mysql://192.168.142.128:3306/mysql_demo
jdbc.write.username=root
jdbc.write.password=root
jdbc.read.driver=com.mysql.jdbc.Driver
jdbc.read.url=jdbc:mysql://192.168.142.129:3306/mysql_demo
jdbc.read.username=root
jdbc.read.password=root
applicationContext-datasource.xml
ChooseDataSource
public class ChooseDataSource extends AbstractRoutingDataSource {
public static Map> METHOD_TYPE_MAP = new HashMap>();
/**
* 实现父类中的抽象方法,获取数据源名称
* @return
*/
protected Object determineCurrentLookupKey() {
return DataSourceHandler.getDataSource();
}
// 设置方法名前缀对应的数据源
public void setMethodType(Map map) {
for (String key : map.keySet()) {
List v = new ArrayList();
String[] types = map.get(key).split(",");
for (String type : types) {
if (!StringUtils.isEmpty(type)) {
v.add(type);
}
}
METHOD_TYPE_MAP.put(key, v);
}
System.out.println("METHOD_TYPE_MAP : "+METHOD_TYPE_MAP);
}
}
DataSourceHandler
public class DataSourceHandler {
// 数据源名称
public static final ThreadLocal holder = new ThreadLocal();
/**
* 在项目启动的时候将配置的读、写数据源加到holder中
*/
public static void putDataSource(String datasource) {
holder.set(datasource);
}
/**
* 从holer中获取数据源字符串
*/
public static String getDataSource() {
return holder.get();
}
}
DataSourceAspect
@Aspect
@Component
@Order(-9999)
@EnableAspectJAutoProxy(proxyTargetClass = true)
public class DataSourceAspect {
protected Logger logger = LoggerFactory.getLogger(this.getClass());
/**
* 配置前置通知,使用在方法aspect()上注册的切入点
*/
@Before("execution(* cn.itcast.service.*.*(..))")
@Order(-9999)
public void before(JoinPoint point) {
String className = point.getTarget().getClass().getName();
String method = point.getSignature().getName();
logger.info(className + "." + method + "(" +
Arrays.asList(point.getArgs())+ ")");
try {
for (String key : ChooseDataSource.METHOD_TYPE_MAP.keySet()) {
for (String type : ChooseDataSource.METHOD_TYPE_MAP.get(key)) {
if (method.startsWith(type)) {
System.out.println("key : " + key);
DataSourceHandler.putDataSource(key);
break;
}
}
}
} catch (Exception e) {
e.printStackTrace();
}
}
}
通过 @Order(-9999) 注解来控制事务管理器, 与该通知类的加载顺序 , 需要让通知类 , 先加载 , 来判定使用哪个数据
源 .
4.11.3 验证
在主库和从库中,执行如下SQL语句,来查看是否读的时候, 从从库中读取 ; 写入操作的时候,是否写入到主
库。
show status like 'Innodb_rows_%' ;
4.11.4 原理
4.12.1 缓存
可以在业务系统中使用redis来做缓存,缓存一些基础性的数据,来降低关系型数据库的压力,提高访问效率。
4.12.2 全文检索
如果业务系统中的数据量比较大(达到千万级别),这个时候,如果再对数据库进行查询,特别是进行分页查询,
速度将变得很慢(因为在分页时首先需要count求合计数),为了提高访问效率,这个时候,可以考虑加入Solr 或
者 ElasticSearch全文检索服务,来提高访问效率
4.13.3 非关系数据库
也可以考虑将非核心(重要)数据,存在 MongoDB 中,这样可以提高插入以及查询的效率。