高级JAVA开发 分布式系统部分

高级JAVA开发 分布式系统

  • 分布式系统
    • 分布式系统接口的幂等性
    • 分布式锁
      • Redis 普通实现
      • 基于Redis的分布式锁框架:Redisson、RedLock
      • 基于zookeeper的分布式锁
    • 分布式系统Session共享
    • 分布式事务
    • 分库分表
      • 拆分方案
      • 全局ID如何生成
    • Mysql读写分离相关问题

分布式系统

参考和摘自:
中华石杉 《Java工程师面试突击第1季》

分布式系统接口的幂等性

思路:缓存记录标识(类似分布式锁,要注意保证操作的原子性) 或 基于数据库unique key。

分布式锁

Redis 普通实现

    # 加锁用Set附带NX(IF NOT EXIST)、PX(WITH EXPIRE TIME)参数保证一个命令的原子性:
    SET lockKey randomValue NX PX 10000

    # 解锁用Lua脚本保证原子性,判断randomValue是否为加锁时放进去的
    # 只有持有锁的人才能释放锁,
    # 锁过期后被另一进程获取,原进程尝试释放锁randomValue不等,操作失败:
    if redis.call("get",KEYS[1]) == ARGV[1]
    then return redis.call("del",KEYS[1])
    else return 0
    end

缺点:
1.Redis单机部署,Redis挂掉后锁失效。 
2.Redis高可用主从同步时是异步的,从库得到“锁”数据会有延时。
  如果slave还没来得及同步完锁数据master挂掉了,锁就失效了。

基于Redis的分布式锁框架:Redisson、RedLock

待补充

基于zookeeper的分布式锁

实现思想:
基于EPHEMERAL临时节点的普通锁:
A线程尝试在zk上创建一个临时节点,如果临时节点不存在,创建成功,拿到锁。释放锁就删除临时节点。
B线程尝试在zk上创建一个相同名称的临时节点,如果节点已经存在了,创建失败,没拿到锁,并在临时节点上注册监听器。一旦临时节点被删除,监听器触发,重复尝试创建临时节点。

基于EPHEMERAL_SEQUENTIAL有序临时节点的公平锁:
线程创建有序临时节点(会在zk目录下创建一个带编号的临时节点)并且取回节点集,对节点集排序拿出编号最小节点,如果最小节点是当前线程创建的节点,那么当前线程持有锁并返回true,反之获得锁失败。然后取得当前临时节点的前一个节点添加监听,然后阻塞,等待前者释放锁通知监听唤醒。这样根据创建节点顺序依次执行。

分布式系统Session共享

1.Tomcat可以直接配置基于Redis的Session共享:

# 单机Redis:



# Redis:


缺点:依赖于web容器,更换web容器还需要另外方案。

2.spring session + redis

# pom.xml配置:

  org.springframework.session
  spring-session-data-redis
  1.2.1.RELEASE


  redis.clients
  jedis
  2.8.1


# spring配置:

	



    
    



    
    
    
    
    
    


# web.xml配置:

    springSessionRepositoryFilter
    org.springframework.web.filter.DelegatingFilterProxy


    springSessionRepositoryFilter
    /*


# 示例代码
@Controller
@RequestMapping("/test")
public class TestController {

	@RequestMapping("/putIntoSession")
	@ResponseBody
    public String putIntoSession(HttpServletRequest request, String username){
        request.getSession().setAttribute("name",  “leo”);
        return "ok";
    }

	@RequestMapping("/getFromSession")
	@ResponseBody
    public String getFromSession(HttpServletRequest request, Model model){
        String name = request.getSession().getAttribute("name");
        return name;
    }
}

分布式事务

https://blog.csdn.net/u011040537/article/details/105840442

分库分表

拆分方案

垂直拆分:将一张表垂直拆分成多张表
比如一张表: Id col1 col2 col3 col4 col5 col6
拆成表1:Id col1 col2 col3
表2:Id col4 col5 col6

水平拆分:单表数据量过大,按Id或者createTime拆分成多张表,表结构不变,表名加上序号,分装到多个数据库中。利于数据不断膨胀的表,比如 订单表、流水表等。
按照range分表:方便扩容,但是对单库压力可能会很大(访问新数据的频率比旧数据高)
按照hash分表:不方便扩容,扩容会导致数据迁移,但是可以均摊数据库压力。

如何分表需参照具体业务衡量。

全局ID如何生成

  1. 新建一个全局数据库专门生成ID,适合并发量低,数据量大的系统
  2. UUID:uuid太长,作为主键性能太差,不适合用于主键。
  3. 基于当前时间生成:时间+userId+… 保证唯一
  4. snowflake算法:
    0 | 0001100 10100010 10111110 10001001 01011100 00 | 10001 | 11001 | 0000 00000000
    永远是0表示整数 | 毫秒时间戳转换成2进制并填0对齐41位 | 机房ID,最大(2^5)32个机房 | 机器ID,最大(2^5)32个机器 | 当前毫秒生成的Id序号,最大(2 ^ 12 - 1)4096个
    最后把拼装的2进制转换成10进制得到ID号

Mysql读写分离相关问题

主库宕机数据丢失问题:
semi-sync复制(半同步复制),主库写入binlog日志之后,将强制立即将数据同步到从库,从库将日志写入自己本地的relay log之后返回一个ack给主库,主库接收到至少一个从库ack后才会认为写操作完成了。

延迟问题:
并行复制,从库开启多个线程,并行读取relay log中不同库的日志,然后并行重放不同库的日志,这是库级别的并行。(多库并发重放)缓解延迟问题。

mysql > show status;
Seconds_Behind_Master,可以看到从库复制主库的数据落后了几ms。
  • 拆库拆表降低单库并发,提高主从同步效率。
  • 打开Mysql并行复制,缓解延迟问题。
  • 重写代码,尽量避免写入后立马读出来。
  • 如果业务需求插入更新数据后立马读出来,那么只能对这个查询设置直连主库,但是并不推荐这种做法。

你可能感兴趣的:(技术栈)