Nacos
致力于帮助您发现、配置和管理微服务。Nacos
提供了一组简单易用的特性集,帮助您快速实现动态服务发现、服务配置、服务元数据及流量管理。
Nacos
帮助您更敏捷和容易地构建、交付和管理微服务平台。Nacos
是构建以服务
为中心的现代应用架构 (例如微服务范式、云原生范式) 的服务基础设施。
下载地址:https://github.com/alibaba/Nacos/releases
直接点进去
根据需要选择win或者linux版本
Nacos
包解压 : tar -zxvf nacos-server-1.1.4.tar.gz
cd nacos
bin
目录下 执行命令(启动单机
) sh startup.sh -m standalone
nacos
的服务端 http://127.0.0.1:8848/nacos/index.html
,默认的用户名密码是 nacos/nacossh shutdown.sh
Nacos
支持基于DNS
和基于 RPC
的服务发现。服务提供者使用原生SDK、OpenAPI
、或一个独立的Agent TODO
注册 Service
后,服务消费者可以使用DNS TODO
或HTTP&API
查找和发现服务。Nacos
提供对服务的实时的健康检查,阻止向不健康的主机或服务实例发送请求。Nacos
支持传输层 (PING 或 TCP
)和应用层 (如 HTTP、MySQL
、用户自定义)的健康检查。对于复杂的云环境和网络拓扑环境中(如 VPC
、边缘网络等)服务的健康检查,Nacos
提供了 agent
上报模式和服务端主动检测2种健康检查模式。Nacos
还提供了统一的健康检查仪表盘,帮助您根据健康状态管理服务的可用性及流量。Nacos
提供了一个简洁易用的UI (控制台样例 Demo) 帮助您管理所有的服务和应用的配置。Nacos
还提供包括配置版本跟踪、金丝雀发布、一键回滚配置以及客户端配置更新状态跟踪在内的一系列开箱即用的配置管理特性,帮助您更安全地在生产环境中管理配置变更和降低配置变更带来的风险。DNS
服务支持权重路由,让你更容易地实现中间层负载均衡、更灵活的路由策略、流量控制以及数据中心内网的简单DNS
解析服务。动态DNS
服务还能让您更容易地实现以DNS
协议为基础的服务发现,以帮助你消除耦合到厂商私有服务发现API
上的风险。Nacos
提供了一些简单的 DNS APIs TODO
帮助你管理服务的关联域名和可用的 IP:PORT
列表。小节一下:
Nacos
是阿里开源的,支持基于 DNS
和基于 RPC
的服务发现。Nacos
的注册中心支持CP
也支持AP
,对他来说只是一个命令的切换,随你玩,还支持各种注册中心迁移到Nacos
,反正一句话,只要你想要的他就有。Nacos
除了服务的注册发现之外,还支持动态配置服务,一句话概括就是Nacos
= Spring Cloud注册中心
+ Spring Cloud配置中心
NameSpace
(默认的NameSpace
是public
NameSpace
可以进行资源隔离,比如我们dev
环境下的NameSpace
下的服务是调用不到prod
的NameSpace
下的微服务)
Nacos
能让您从微服务平台建设的视角管理数据中心的所有服务及元数据,包括管理服务的描述、生命周期、服务的静态依赖分析、服务的健康状态、服务的流量管理、路由及安全策略、服务的 SLA
以及最首要的 metrics 统计数据
关于Nacos数据的存储来说,支持临时也支持持久化。
关于设计来说支持CP也支持AP,对他来说只是一个命令的切换,随你玩,还支持各种注册中心迁移到Nacos,反正一句话,只要你想要的他就有。
<dependency>
<groupId>com.alibaba.cloudgroupId>
<artifactId>spring‐cloud‐alibaba‐nacos‐discoveryartifactId>
dependency>
@SpringBootApplication
@EnableDiscoveryClient
public class Tulingvip01MsAlibabaNacosClientOrderApplication {
public static void main(String[] args) {
SpringApplication.run(Tulingvip01MsAlibabaNacosClientOrderApplication.class, args);
}
}
附:
@EnableDiscoveryClient
和@EnableEurekaClient
@EnableEurekaClient
只适用于Eureka
作为注册中心,@EnableDiscoveryClient
可以是其他注册中心注意
:server-addr
:不需要写协议
spring:
application:
name: order‐center
cloud:
nacos:
discovery:
server-addr: localhost:8848
验证我们的服务是否注册到我们的nacos
上
@Autowired
private DiscoveryClient discoveryClient;
@GetMapping("/getServiceList")
public List<ServiceInstance> getServiceList() {
List<ServiceInstance> serviceInstanceList =
discoveryClient.getInstances("order‐center");
return serviceInstanceList;
}
Nacos作为配置,可以做到不用重启服务而动态刷新配置
微服务接入配置中心的步骤
添加依赖包spring-cloud-alibaba-nacos-config
<dependency>
<groupId>com.alibaba.cloudgroupId>
<artifactId>spring‐cloud‐alibaba‐nacos‐configartifactId>
dependency>
编写配置文件,需要写一个bootstrap.yml
配置文件
配置解释 :
server-addr: localhost:8848
: 表示我微服务怎么去找我的配置中心spring.application.name=order-center
: 表示当前微服务需要向配置中心索要order-center的配置spring.profiles.active=prod
: 表示我需要向配置中心索要order-center的生产环境的配置${application.name}- ${spring.profiles.active}.${file-extension}
spring:
application:
name: order‐center
profiles:
active: prod
cloud:
nacos:
config:
server-addr: localhost:8848
file‐extension: yml
真正在nacos
配置中心上 就是 order-center-prod.yml
通用配置
指把该配置提取为一个公共配置yml
,提供给所有的工程使用
通过shared‐dataids
配置,越排到后面的公共配置yml优先级越高
spring:
application:
name: order‐center
profiles:
active: dev
cloud:
nacos:
config:
server-addr: localhost:8848
file‐extension: yml
#各个微服务共享的配置,注意越排到后面的公共配置yml优先级越高
shared‐dataids: common.yml,common2.yml
#支持动态刷新的配置文件
refreshable‐dataids: common.yml,common2.yml
配置优先级:
NacosPropertySource {name=‘order-center-dev.yml’},
NacosPropertySource {name=‘order-center.yml’},
NacosPropertySource {name=‘common2.yml’},
NacosPropertySource {name=‘common.yml’}
通过ext-config
方式,同样配置到越后面的配置 优先级越高
extension-configs
是nacos-config
的jar包是2.2.6版本的,在此版本中ext-config
提示已过时
spring:
cloud:
nacos:
config:
server-addr: localhost:8848
file‐extension: yml
extension-configs[0]:
data-id: common3.yml
group: DEFAULT_GROUP
refresh: true
extension-configs[1]:
data-id: common4.yml
group: DEFAULT_GROUP
refresh: true
或者如下:
spring:
cloud:
nacos:
config:
server-addr: localhost:8848
file‐extension: yml
ext-config:
- data-id: common3.yml
group: DEFAULT_GROUP
refresh: true
- data-id: common4.yml
group: DEFAULT_GROUP
refresh: true
精准配置
>不同环境的通用配置
>不同工程的(ext-config)
>不同工程
精准配置
会覆盖 与通用配置
相同的配置,然后再和通用配置互补
spring:
application:
name: order‐center
profiles:
active: dev
cloud:
nacos:
config:
server-addr: localhost:8848
file‐extension: yml
shared‐dataids: common.yml,common2.yml
#支持动态刷新的配置文件
refreshable‐dataids: common.yml,common2.yml
ext-config:
- data-id: common3.yml
group: DEFAULT_GROUP
refresh: true
- data-id: common4.yml
group: DEFAULT_GROUP
refresh: true
上述配置 加载的优先级 :
order-center-dev.yml
精准配置order-center.yml
同工程不同环境的通用配置ext-config
: 不同工程 通用配置shared-dataids
不同工程通用配置我们的nacosserver
(搭建三个集群端口分别为8849 ,8850,8851
)
我们以配置一台为例(8849)为例
nacos8849/conf
文件application.properties
,配置数据库链接spring.datasource.platform=mysql
# 数据库实例数量
db.num=1
//自己数据库的连接信息
db.url.0=jdbc:mysql://127.0.0.1:3306/nacos_test?characterEncoding=utf8&connectTimeout=1000&socketTimeout=3000&autoReconnect=true
db.user=root
db.password=root
创建一个数据库(需要自己创建一个数据库) 脚本的位子在nacos/conf/nacos-mysql.sql
nacos8849/conf
文件 把原来的cluster.conf.example
改为cluster.conf
文件nacos8849
安装完成了而nacos8850
和nacos8851
同样安装nacos-server
的启动脚本jvm
参数Nacos
作为配置中心的功能是基于Raft
算法来实现的。
Raft
算法是分布式系统开发首选的共识算法,它通过一切以领导者为准
的方式,实现一系列值的共识和各节点日志的一致。
Raft
选举过程涉及三种角色和任期(Term):
Follower
:默默地接收和处理来自Leader
的消息,当等待Leader
心跳信息超时的时候,就主动站出来,推荐自己当Candidate
。Candidate
:向其他节点发送投票请求,通知其他节点来投票,如果赢得了大多数(N/2+1
)选票,就晋升Leader
Leader
:负责处理客户端请求,进行日志复制等操作,每一轮选举的目标就是选出一个领导者;领导者会不断地发送心跳信息,通知其他节点“我是领导者,我还活着,你们不要发起新的选举,不用找个新领导者来替代我。”Term
:这跟民主社会的选举很像,每一届新的履职期称之为一届任期领导选举过程:
Raft
使用心跳(heartbeat
)触发Leader
选举
如果Follower
在规定的超时时间,都没有收到来自Leader
的心跳,它就发起选举:将自己的状态切为 Candidate
,增加自己的任期编号,然后向集群中的其它Follower
节点发送请求,询问其是否选举自己成为Leader
:
其他节点收到候选人A的请求投票消息后,如果在编号为1的这届任期内还没有进行过投票,那么它将把选票投给节点A,并增加自己的任期编号:
当收到来自集群中过半节点的接受投票后,A节点即成为本届任期内 Leader
,他将周期性地发送心跳消息,通知其他节点我是Leader
,阻止Follower
发起新的选举:
选举的几种情况 :
Leader
,然后,leader
会给所有节点发送消息,避免其他节点触发新的选举term
不低于自己的term
,知道有已经有Leader
了,于是转换成follower
majority
投票,可能是平票的情况。加入总共有四个节点(A/B/C/D),Node C、Node D同时成为了candidate
,但Node A投了NodeD一票,NodeB投了Node C一票,这就出现了平票 split vote
的情况。这个时候大家都在等啊等,直到超时后重新发起选举。如果出现平票的情况,那么就延长了系统不可用的时间,因此raft引入了 randomizedelection timeouts
来尽量避免平票情况