1. 背景
一直在完善自己的微服务架构,其中包含分布式工作流服务的建设,目前采用的是Camunda工作流引擎。使用Camunda工作流,就会涉及到工作流引擎的用户体系如何与现有用户体系集成的问题(Flowable、Activity也类似)。现有设计中,工作流定位偏重于企业内部流程的流转,因此系统中设计了单位、部门、人员以及人事归属与Camunda工作流用户体系对应。
功能设计完成,就面临另外一个问题,如何解决现有人事体系数据如何【实时
】同步至Camunda工作流引擎中。如果现有体系数据与工作流数据在同一个库中,相对比较好解决。而微服务架构中,不同服务的数据通常存放在不同数据库中,那么就需要进行数据的同步。采用的方式不同,可以取得的效果也相同。
最初考虑如下两种方案,但是都略感不足:
ETL:使用ETL工具进行数据同步是典型的方式,可以选择工具也比较多。开源的ETL工具增量同步问题解决的并不理想,不使用增量同步数那么数据同步始终存在时间差;商业的ETL工具增量同步解决的比较好,但是庞大且昂贵。
消息队列:消息队列是多系统集成普遍采用的方式,可以很好的解决数据同步的实时问题。但是数据同步的两端都需要自己编写代码,一端写生产代码一端写消费代码,生产端代码还要捆绑现有体系数据所有操作,需要的编写量比较大。
查询对比的大量的资料,最终选择了Debezimu来解决以上问题以及未来更多数据同步的问题。
2. Debezium介绍
RedHat开源的Debezium是一个将多种数据源实时变更数据捕获,形成数据流输出的开源工具。 它是一种CDC(Change Data Capture)工具,工作原理类似大家所熟知的Canal, DataBus, Maxwell等,是通过抽取数据库日志来获取变更的。 官方介绍为:
Debezium is an open source distributed platform for change data capture. Start it up, point it at your databases, and your apps can start responding to all of the inserts, updates, and deletes that other apps commit to your databases. Debezium is durable and fast, so your apps can respond quickly and never miss an event, even when things go wrong
Debezium是一个分布式平台,它将您现有的数据库转换为事件流,因此应用程序可以看到数据库中的每一个行级更改并立即做出响应。Debezium构建在Apache Kafka之上,并提供Kafka连接兼容的连接器来监视特定的数据库管理系统。
Debezium现在已支持以下数据库:
MySQL
MongoDB
PostgreSQL
Oracle
SQL Server
Db2
Cassandra
Vitess
与ETL不同,Debezimu只支持在生产端连接数据库,消费端不支持连接数据库,而是需要自己编写代码接收Kafka消息数据。分析下来这种方式更加灵活,还可以很好利用现有微服务架构中的Kafka。
3. 快速搭建Debezimu测试环境。
目前,Debezium最新的Stable版本是1.6。 Debezium已经把要用到的Component打包成了Docker的Image,因此,我们只需要安装并启动Docker后就可以按下面的步骤快速搭建测试环境了。
如何在Windows下搭建Docker环境,可以参考个人的相关文章:
(1)Windows 10 2004 (20H1) 安装 Docker Desktop for Windows (2.3.0.2) 以 WSL 2 方式运行容器
(2)Windows 10 将 Docker Desktop for Windows(WSL 2 方式)文件存储移出C盘放置到其它目录
3.1 运行Zookeeper
docker run -it --name zookeeper -p 2181 :2181 -p 2888 :2888 -p 3888 :3888 debezium/zookeeper:1.6
3.2 运行Kafka
docker run -it --name kafka -p 9092 :9092 --link zookeeper:zookeeper debezium/kafka:1.6
3.3 运行PostgreSQL
docker run -it --rm --name postgres -p 5432 :5432 -e POSTGRES_USER = postgres -e POSTGRES_PASSWORD = postgres debezium/example-postgres:1.6
上面代码中使用的是:debezium/example-postgres:1.6,查看Debezimu官方文档以及其它示例都是这个。实际上Debezimu对PostgreSQL 9~13都进行了Docker封装,可以根据自己的需要在Docker Hub中选择响应的PostgreSQL版本。
debezium/postgres很小,使用也比较方便,而且也进行了必要的设置,无须再进行额外的配置就可以直接使用。
3.4 运行Debezimu Connect
docker run -it --rm --name connect -p 8083 :8083 -e GROUP_ID = 1 -e CONFIG_STORAGE_TOPIC = my_connect_configs -e OFFSET_STORAGE_TOPIC = my_connect_offsets -e STATUS_STORAGE_TOPIC = my_connect_statuses --link zookeeper:zookeeper --link kafka:kafka --link postgres:postgres debezium/connect:1.6
Debezium的container启动时需要传入如下环境变量:
GROUP_ID: 分组ID,若需要启动多个Debezium的实例组成集群,那么它们的GROUP_ID必须被设置为一样
CONFIG_STORAGE_TOPIC:下面需要调用Debezium提供的RestFUL API管理connector,connector的信息就是保存在CONFIG_STORAGE_TOPIC指定的kafka topic下。
OFFSET_STORAGE_TOPIC: connector监控数据流的offset,若我们使用的是PostgreSQL Connector,那么OFFSET_STORAGE_TOPIC指定的topic中存的就是PostgreSQL的lsn。
3.5 创建Connector
经过上面4个步骤后,Debezium的测试环境就搭建好了,现在需要调用Debezium提供的API创建connector,使Debezium与数据库之间建立关系。我们把下面的payload POST到http://:8083/connectors/
。
{
"name" : "fulfillment-connector" ,
"config" : {
"connector.class" : "io.debezium.connector.postgresql.PostgresConnector" ,
"database.hostname" : "192.168.99.100" ,
"database.port" : "5432" ,
"database.user" : "postgres" ,
"database.password" : "postgres" ,
"database.dbname" : "postgres" ,
"database.server.name" : "fulfillment" ,
"table.include.list" : "public.inventory"
}
}
“name”:注册到Kafka Connect服务的Connector名称
“connector.class”:PostgreSQL connector class名称
“database.hostname”:PostgreSQL 数据库地址
“database.port”:PostgreSQL 数据库端口
“database.user”:PostgreSQL 数据库用户名
“database.password”:PostgreSQL数据密码
“database.dbname”:连接的PostgreSQL数据库
“database.server.name”:虚拟的数据库Server名称,可以根据实际需求定义,消费Kafka数据时要使用该值
“table.include.list”:监听的数据表列表,以",“分割。PostgreSQL要将表名写全,格式”."。如果没有特定的Schema,那么就是默认的public
下面为完成的curl命令:
curl -i -X POST -H "Accept:application/json" -H "Content-Type:application/json" localhost:8083/connectors/ -d '{"name": "fulfillment-connector", "config": {"connector.class": "io.debezium.connector.postgresql.PostgresConnector", "database.hostname": "192.168.99.100", "database.port": "5432", "database.user": "postgres", "database.password": "postgres", "database.dbname" : "postgres", "database.server.name": "fulfillment", "table.include.list": "public.inventory" }}'
上面是示例,因为使用的是Windows,个人觉得curl不方便,换用postman:
3.6 Docker Compose 配置
为了方便使用,将以上Docker命令整合为Docker Compose配置,具体如下:
version : "3"
services :
postgres :
image : debezium/postgres: 13
container_name : postgres
hostname : postgres
environment :
POSTGRES_USER : herodotus
POSTGRES_PASSWORD : herodotus
ports :
- 5432: 5432
zookeeper :
image : debezium/zookeeper: 1.6
container_name : zookeeper
restart : always
ports :
- 2181: 2181
- 2888: 2888
- 3888: 3888
kafka :
image : debezium/kafka: 1.6
container_name : kafka
restart : always
ports :
- 9092: 9092
environment :
ZOOKEEPER_CONNECT : zookeeper: 2181
BOOTSTRAP_SERVERS : kafka: 9092
depends_on :
- zookeeper
connect :
image : debezium/connect: 1.6
container_name : connect
restart : always
ports :
- 8083: 8083
environment :
GROUP_ID : 1
CONFIG_STORAGE_TOPIC : herodotus_connect_configs
OFFSET_STORAGE_TOPIC : herodotus_connect_offsets
STATUS_STORAGE_TOPIC : herodotus_connect_statuses
BOOTSTRAP_SERVERS : kafka: 9092
depends_on :
- kafka
4. 外部数据库配置
上一章节,介绍了Debezimu测试环境的方式,其中使用的debezium/postgres是已经进行过配置的,所以使用起来比较方便。在实际使用过程中,很多时候是使用独立搭建PostgreSQL,那么就需要对PostgreSQL进行配置。
4.1 以Docker的方式运行基础组件
本章节主要介绍Debezimu与独立的PostgreSQL数据库连接,因此除了PostgreSQL以外,Zookeeper、Kafka、Debezimu Connect仍旧使用Docker方式部署。具体部署的Docker Compose配置如下:
version : "3"
services :
zookeeper :
image : debezium/zookeeper: 1.6
container_name : zookeeper
hostname : zookeeper
environment :
ZOOKEEPER_SERVER_ID : 1
ports :
- 2181: 2181
- 2888: 2888
- 3888: 3888
kafka :
image : debezium/kafka: 1.6
container_name : kafka
hostname : kafka
ports :
- 9092: 9092
environment :
BROKER_ID : 1
ZOOKEEPER_CONNECT : zookeeper: 2181
KAFKA_LISTENERS : LISTENER_INNER: //kafka: 29092 , LISTENER_OUTER: //0.0.0.0: 9092
KAFKA_ADVERTISED_LISTENERS : LISTENER_INNER: //kafka: 29092 , LISTENER_OUTER: //192.168.101.10: 9092
KAFKA_LISTENER_SECURITY_PROTOCOL_MAP : LISTENER_INNER: PLAINTEXT, LISTENER_OUTER: PLAINTEXT
KAFKA_INTER_BROKER_LISTENER_NAME : LISTENER_INNER
KAFKA_ALLOW_PLAINTEXT_LISTENER : 'yes'
KAFKA_AUTO_CREATE_TOPICS_ENABLE : 'true'
depends_on :
- zookeeper
connect :
image : debezium/connect: 1.6
container_name : connect
hostname : connect
ports :
- 8083: 8083
environment :
GROUP_ID : 1
CONFIG_STORAGE_TOPIC : herodotus_connect_configs
OFFSET_STORAGE_TOPIC : herodotus_connect_offsets
STATUS_STORAGE_TOPIC : herodotus_connect_statuses
BOOTSTRAP_SERVERS : kafka: 9092
depends_on :
- kafka
其中Kafka Listener相关的配置,是为了解决Spring Kafka连接Kafka会出现:Connection to node -1 could not be established. Broker may not be available.
问题。
4.2 修改PostgreSQL配置
Logical Decoding 功能是PostgreSQL在9.4加入的,它是一种机制,允许提取提交到事务日志的更改,并在输出插件的帮助下以用户友好的方式处理这些更改。输出插件使客户机能够使用更改。
PostgreSQL connector 读取和处理数据库变化主要包含两个部分:
Logical Decoding 输出插件:根据选择可能需要安装输出插件。运行PostgreSQL服务之前,必须配置replication slot
来启用你所选择的输出插件,有以下几个输出插件供选择:
decoderbufs
是基于Protobuf
的,目前由Debezimu社区维护
wal2json
是基于JSON
的,目前由wal2json社区维护
pgoutput
在PostgreSQL 10及以上版本中是标准的Logical Decoding 输出插件。是由PostgreSQL社区维护,由PostgreSQL自己用于Logical Replication。这个插件是内置安装的,所以不需要额外安装。
Java代码(就是连接Kafka Connect的代码):负责读取由Logical Decoding 输出插件产生的数据。
Logical Decoding 输出插件不支持DDL变更,这意味着Connector不能把DDL变更事件发送给消费者
Logical Decoding Replicaiton Slots支持数据库的primary
服务器。因此如果是PostgreSQL服务的集群,Connector只能在primary
服务器激活。如果primary
服务器出现问题,那么connector就会停掉。
4.2.1 修改PostgreSQL配置
在${PostgreSQL_HOME}/13/data目录下,找到postgresql.conf
。
修改以下配置:
wal_level=logical
max_wal_senders=1
max_replication_slots=1
wal_level
通知数据库使用 logical decoding 读取预写日志
max_wal_senders
通知数据库独立处理WAL变更的独立进程数量
max_replication_slots
通知数据库处理WAL变更流所允许最大replication slots数目
配置完成后记得重启数据库
4.2.2 设置数据库权限
需要给PostgreSQL 用户分配replication权限。定义一个PostgreSQL role,至少 分配REPLICATION
和LOGION
两项权限,示例代码如下:
CREATE ROLE < name> REPLICATION LOGIN;
具体操作可以参考一下脚本:
CREATE USER user WITH PASSWORD 'pwd' ;
ALTER ROLE user replication ;
grant CONNECT ON DATABASE test to user ;
GRANT SELECT ON ALL TABLES IN SCHEMA public TO user ;
4.3 创建Connector
把下面的payload POST到http://:8083/connectors/
{
"name" : "herodotus-connector" ,
"config" : {
"connector.class" : "io.debezium.connector.postgresql.PostgresConnector" ,
"database.hostname" : "192.168.101.10" ,
"database.port" : "15432" ,
"database.user" : "athena" ,
"database.password" : "athena" ,
"database.dbname" : "athena" ,
"database.server.name" : "herodotus" ,
"slot.name" : "herodotus_slot" ,
"table.include.list" : "public.sys_organization" ,
"publication.name" : "herodotus_public_connector" ,
"publication.autocreate.mode" : "filtered" ,
"plugin.name" : "pgoutput"
}
}
postman 界面操作如下图: payload有两个字段,name是connector的名字,config是connector的配置信息,下表为config中的字段的解释:
字段名称
说明
connector.class
connector的实现类,本文使用的是io.debezium.connector.postgresql.PostgresConnector,因为我们的数据库是PostgreSQL
database.hostname
数据库服务的IP或域名
database.port
数据库服务的端口
database.user
连接数据库的用户
database.password
连接数据库的密码
database.dbname
数据库名
database.server.name
每个被监控的表在Kafka都会对应一个topic,topic的命名规范是..
slot.name
PostgreSQL的复制槽(Replication Slot)名称
table.include.list
如果设置了table.include.list,即在该list中的表才会被Debezium监控
plugin.name
PostgreSQL服务端安装的解码插件名称,可以是decoderbufs, wal2json, wal2json_rds, wal2json_streaming, wal2json_rds_streaming 和 pgoutput。如果不指定该值,则默认使用decoderbufs。 本例子中使用了pgoutput,因为它是PostgreSQL 10+自带的解码器,而其他解码器都必须在PostgreSQL服务器安装插件。
publication.name
PostgreSQL端的WAL发布(publication)名称,每个Connector都应该在PostgreSQL有自己对应的publication,如果不指定该参数,那么publication的名称为dbz_publication
publication.autocreate.mode
该值在plugin.name设置为pgoutput才会有效。有以下三个值:all_tables - debezium会检查publication是否存在,如果publication不存在,connector则使用脚本CREATE PUBLICATION FOR ALL TABLES创建publication,即该发布者会监控所有表的变更情况。disabled - connector不会检查有无publication存在,如果publication不存在,则在创建connector会报错.filtered - 与all_tables不同的是,debezium会根据connector的配置中的table.include.list生成生成创建publication的脚本: CREATE PUBLICATION FOR TABLE 。例如,本例子中,“table.include.list"值为"public.sys_organization”,则publication只会监控这个表的变更情况。
下面结合本例子中connector的配置信息对几个重点属性进行进一步说明:
Slot.name 重点说明
按照上例Debezium会在PostgreSQL创建一个名为herodotus_slot
的复制槽,本例中创建的connector需要通过该复制槽获取数据变更的信息。
可以通过以下sql查看复制槽的信息:
select * from pg_replication_slots;
上图中,active_pid为14200,即进程ID为14200的wal_sender进程已经在使用该复制槽与Debezium交互了
database.server.name和table.include.list
当connector获取到数据变更的信息后,会把该信息转化为统一的数据格式,并发布到Kafka的topic中。Debezium规定一个表对应一个topic,topic的名字的格式为 ..,本例中的表的数据变更消息将保存到Kafka的topic herodotus.public.sys_organization中。
可以通过以下代码查看接收到的信息
@KafkaListener ( topics = { "herodotus.public.sys_organization" } , groupId = "herodotus.debezium" )
public void received ( String message) {
log. info ( "[Herodotus] |- Recived message from Debezium : [{}]" , message) ;
}
5. 运行测试
现在,可以基于以上环境的配置,进行Debezium捕获数据效果的测试。可以进入到Kafka容器中,使用使用Kafka提供的kafka-console-consumer.sh
查看Topic接收到的数据。具体命令如下:
bin/kafka-console-consumer.sh --bootstrap-server 192.168 .101.10:9092 --topic herodotus.public.sys_organization
5.1 Insert 测试
在数据库sys_organization
中插入一条数据
Kafka的消费者命令行工具收到了来自Debezium发布的数据变更消息: 格式化后的消息体如下,其中schema字段在此先忽略,重点放payload.before,payload.after及payload.op字段上:
{
"schema" : {
...
} ,
"payload" : {
"before" : null ,
"after" : {
"organization_id" : "4" ,
"create_time" : null ,
"ranking" : null ,
"update_time" : null ,
"description" : null ,
"is_reserved" : null ,
"reversion" : null ,
"status" : 1 ,
"a4_biz_org_id" : null ,
"biz_org_code" : null ,
"biz_org_desc" : null ,
"biz_org_id" : null ,
"biz_org_name" : null ,
"biz_org_type" : null ,
"organization_name" : "AAAAA" ,
"parent_id" : null ,
"partition_code" : null ,
"short_name" : null
} ,
"source" : {
"version" : "1.6.0.Final" ,
"connector" : "postgresql" ,
"name" : "herodotus" ,
"ts_ms" : 1626594964405 ,
"snapshot" : "false" ,
"db" : "athena" ,
"sequence" : "[\"63461608\",\"63461608\"]" ,
"schema" : "public" ,
"table" : "sys_organization" ,
"txId" : 2460 ,
"lsn" : 63461896 ,
"xmin" : null
} ,
"op" : "c" ,
"ts_ms" : 1626594964846 ,
"transaction" : null
}
}
由于是insert操作,所以op为c (create),before为null,after为我们插入的数据。
5.2 Update 测试
在数据库sys_organization
中修改一条数据
Kafka的消费者命令行工具收到了来自Debezium发布的数据变更消息: 格式化后的消息体如下:
{
"schema" : {
...
} ,
"payload" : {
"before" : null ,
"after" : {
"organization_id" : "4" ,
"create_time" : null ,
"ranking" : null ,
"update_time" : null ,
"description" : null ,
"is_reserved" : null ,
"reversion" : null ,
"status" : 1 ,
"a4_biz_org_id" : null ,
"biz_org_code" : null ,
"biz_org_desc" : null ,
"biz_org_id" : null ,
"biz_org_name" : null ,
"biz_org_type" : null ,
"organization_name" : "BBBBB" ,
"parent_id" : null ,
"partition_code" : null ,
"short_name" : null
} ,
"source" : {
"version" : "1.6.0.Final" ,
"connector" : "postgresql" ,
"name" : "herodotus" ,
"ts_ms" : 1626595173601 ,
"snapshot" : "false" ,
"db" : "athena" ,
"sequence" : "[\"63466888\",\"63466888\"]" ,
"schema" : "public" ,
"table" : "sys_organization" ,
"txId" : 2461 ,
"lsn" : 63467176 ,
"xmin" : null
} ,
"op" : "u" ,
"ts_ms" : 1626595173825 ,
"transaction" : null
}
}
进行更新产品信息的操作后,consumer将收到一条op为u (update)的信息,after为修改后的数据。
5.3 Delete测试
在数据库sys_organization
中删除一条数据
Kafka的消费者命令行工具收到了来自Debezium发布的数据变更消息: 格式化后的消息体如下:
{
"schema" : {
...
} ,
"payload" : {
"before" : {
"organization_id" : "3" ,
"create_time" : null ,
"ranking" : null ,
"update_time" : null ,
"description" : null ,
"is_reserved" : null ,
"reversion" : null ,
"status" : null ,
"a4_biz_org_id" : null ,
"biz_org_code" : null ,
"biz_org_desc" : null ,
"biz_org_id" : null ,
"biz_org_name" : null ,
"biz_org_type" : null ,
"organization_name" : null ,
"parent_id" : null ,
"partition_code" : null ,
"short_name" : null
} ,
"after" : null ,
"source" : {
"version" : "1.6.0.Final" ,
"connector" : "postgresql" ,
"name" : "herodotus" ,
"ts_ms" : 1626594566933 ,
"snapshot" : "false" ,
"db" : "athena" ,
"sequence" : "[\"63461120\",\"63461120\"]" ,
"schema" : "public" ,
"table" : "sys_organization" ,
"txId" : 2458 ,
"lsn" : 63461176 ,
"xmin" : null
} ,
"op" : "d" ,
"ts_ms" : 1626594567136 ,
"transaction" : null
}
}
进行删除产品信息的操作后,consumer将收到一条op为d (delete)的信息,before为刪除前的数据,after为null。
6.总结
通过Debezimu进行数据同步,不仅解决了传统ETL时效性不高的问题,还解决了基于消息队列需要两端编写代码的工程量,而且基于容器的方式更适合微服务架构的使用,使用Kafka进行消费端的整合,使得整合方式更加灵活便捷、终端类型更加丰富。
示例代码地址:
参考资料
[1] :https://blog.csdn.net/foshansuperinter/article/details/110856979
[2] :https://access.redhat.com/documentation/en-us/red_hat_integration/2020.q1/html/debezium_user_guide/debezium-connector-for-postgresql
[3] :https://debezium.io/documentation/reference/1.6/connectors/postgresql.html#postgresql-overview
你可能感兴趣的:(Spring,Cloud,微服务,容器,微服务架构,数据库,etl)
Spring AI快速入门
学java的cc
spring 大数据 java
一、引入依赖org.springframework.aispring-ai-starter-model-openaiorg.springframework.aispring-ai-bom${spring-ai.version}pomimport二、配置模型spring:ai:openai:base-url:https://dashscope.aliyuncs.com/compatible-mode
企业级知识库私有化部署:腾讯混元+云容器服务TKE实战
大熊计算机
# 腾讯云 语言模型
1.背景需求分析在金融、医疗等数据敏感行业,企业需要构建完全自主可控的知识库系统。本文以某证券机构智能投研系统为原型,演示如何基于腾讯混元大模型与TKE容器服务实现:千亿级参数模型的私有化部署金融领域垂直场景微调高并发低延迟推理服务全链路安全合规方案1.1典型技术挑战#性能基准测试数据(单位:QPS)|场景|裸机部署|容器化部署|优化后||--------------------|--------
GitHub Actions与AWS OIDC实现安全的ECR/ECS自动化部署
ivwdcwso
运维与云原生 github aws 安全 ecr ecs oldc CI/CD
引言在现代云原生应用开发中,实现安全、高效的CI/CD流程至关重要。本文将详细介绍如何利用GitHubActions和AWSOIDC(OpenIDConnect)构建一个无需长期凭证的安全部署管道,将容器化应用自动部署到AmazonECR和ECS服务。架构概述整个解决方案的架构包含三个主要部分:GitHub端:代码仓库和GitHubActions工作流AWS端:OIDC身份验证、ECR容器仓库和E
AWS Lambda与RDS连接优化之旅
t0_54manong
编程问题解决手册 aws 云计算 个人开发
在云计算的时代,AWSLambda与RDS的结合为开发者提供了高效且灵活的解决方案。然而,在实际应用中,我们常常会遇到一些性能瓶颈。本文将通过一个真实案例,探讨如何优化AWSLambda与RDS之间的连接,以提高API的响应速度。背景介绍最近,我们在AWS上部署了一个使用Dotnet6开发的API,它通过APIGateway暴露给外部,并连接到同VPC内的MySQLAuroraRDS数据库。部署前
微服务分布式事务的几种解决方案及应用场景
凌晨四点的打铁声
分布式事务 微服务 分布式 数据库 springcloud
文章目录分布式事务的几种方案1.2pcseata的AT一阶段二阶段-回滚二阶段-提交2.柔性事务——TCC事务补偿型3.柔性事务-最大努力通知型方案4.柔性事务-可靠消息+最终一致性方案(异步确保型)分布式事务的几种方案2pc模式TCC模式:柔性事务——TCC事务补偿型柔性事务-最大努力通知型方案柔性事务-可靠消息+最终一致性方案(异步确保型)1.2pc2pc就是2phasecommit二阶段提交
Spring Cloud 微服务架构部署模式
Java技术栈实战
架构 spring cloud 微服务 ai
SpringCloud微服务架构部署模式:从单体到云原生的进化路径关键词:SpringCloud、微服务架构、部署模式、容器化、Kubernetes、服务网格、DevOps摘要:本文系统解析SpringCloud微服务架构的核心部署模式,涵盖传统物理机部署、容器化部署、Kubernetes集群编排、服务网格集成等技术栈。通过技术原理剖析、实战案例演示和最佳实践总结,揭示不同部署模式的适用场景、技术
Redis配置与优化
?ccc?
redis 数据库 缓存
目录一:Redis介绍1:关系数据库与非关系型数据库2:Redis基础2.1Redis简介2.2Redis安装部署2.3配置参数3:Redis命令工具3.1redis-cli命令行工具3.2redis-benchmark测试工具4:Redis数据库常用命令4.1key相关命令4.2多数据库常用命令二:Redis持久化1:RDB和AOF的区别2:RDB和AOF的优缺点3:Redis持久化配置三:性能
Spring Boot项目初始化加载自定义配置文件内容到静态属性字段
@Corgi
Java面试题 spring boot 后端 java
文章目录创建配置文件cXXX.properties配置类XXXConfig.java添加第三方JAR包创建配置文件cXXX.properties在resource目录下新建配置文件cXXX.properties,内容如下:#商户号mch_id=xxxxx#商户密码pwd=xxxx#接口请求地址req_url=https://xxx#异步回调通知地址(请替换为实际地址)notify_url=htt
三阶落地:腾讯云Serverless+Spring Cloud的微服务实战架构
大熊计算机
# 腾讯云 架构 腾讯云 serverless
云原生演进的关键挑战(1)传统微服务架构痛点资源利用率低(非峰值期资源闲置率>60%)运维复杂度高(需管理数百个容器实例)突发流量处理能力弱(扩容延迟导致P99延迟飙升)(2)Serverless的破局价值腾讯云SCF(ServerlessCloudFunction)提供:毫秒级计费粒度(成本下降40%~70%)百毫秒级弹性伸缩(支持每秒万级并发扩容)零基础设施运维同步调用异步事件用户请求API网
RAG 调优指南:Spring AI Alibaba 模块化 RAG 原理与使用
ApacheDubbo
spring 人工智能 架构 Spring AI RAG
>夏冬,SpringAIAlibabaContributorRAG简介什么是RAG(检索增强生成)RAG(RetrievalAugmentedGeneration,检索增强生成)是一种结合信息检索和文本生成的技术范式。核心设计理念RAG技术就像给AI装上了「实时百科大脑」,通过先查资料后回答的机制,让AI摆脱传统模型的"知识遗忘"困境。️四大核心步骤1.文档切割→建立智能档案库核心任务:将海量文档
Nginx与Tomcat:谁更适合你的服务器?
当归1024
java 中间件 nginx nginx tomcat 服务器
nginx和Tomcat是两种不同类型的服务器软件,它们各有不同的用途和特点:基本定义nginx轻量级的HTTP服务器和反向代理服务器主要用于静态文件服务、负载均衡、反向代理TomcatJavaWeb应用服务器专门用于运行JavaWeb应用(JSP、Servlet)主要区别1.功能定位nginx:静态文件服务器反向代理服务器负载均衡器HTTP缓存服务器Tomcat:Java应用容器JSP/Serv
Spring AI Alibaba 支持国产大模型的Spring ai框架
程序员老陈头
面试 学习路线 阿里巴巴 spring 人工智能 java
总计30万奖金,SpringAIAlibaba应用框架挑战赛开赛点此了解SpringAI:java做ai应用的最好选择过去,Java在AI应用开发方面缺乏一个高效且易于集成的框架,这限制了开发者快速构建和部署智能应用程序的能力。SpringAI正是为解决这一问题而生,它提供了一套统一的接口,使得AI功能能够以一种标准化的方式被集成到现有的Java项目中。此外,SpringAI与原有的Spring生
技术调研:时序数据库(一)
myskybeyond
时序数据库 时序数据库 数据库
选择时序数据库时,选择当下主流的解决方案。目前主流的开源解决方案有InfluxDB、TDengine和TimescaleDB。下文从多个维度对比分析,最终根据需求做出选型决策。1.核心架构与设计理念数据库架构特点核心优势InfluxDB-专为时序数据设计的分布式数据库-基于时间线(TimeSeries)模型-开源版(OSS)与商业版(Cloud/Enterprise)功能差异大高写入吞吐量、原生支
企业级AI开发利器:Spring AI框架深度解析与实战_spring ai实战
AI大模型-海文
人工智能 spring python 算法 开发语言 java 机器学习
企业级AI开发利器:SpringAI框架深度解析与实战一、前言:Java生态的AI新纪元在人工智能技术爆发式发展的今天,Java开发者面临着一个新的挑战:如何将大语言模型(LLMs)和生成式AI(GenAI)无缝融入企业级应用。传统的Java生态缺乏统一的AI集成方案,开发者往往需要为不同AI供应商(如OpenAI、阿里云、HuggingFace)编写大量重复的接口适配代码,这不仅增加了开发成本,
高可用与低成本兼得:全面解析 TDengine 时序数据库双活与双副本
TDengine (老段)
TDengine 案例分析 时序数据库 tdengine 大数据 涛思数据 数据库 物联网 iot
在现代数据管理中,企业对于可靠性、可用性和成本的平衡有着多样化的需求。为此,TDengine在3.3.0.0版本中推出了两种不同的企业级解决方案:双活方案和基于仲裁者的双副本方案,以满足不同应用场景下的特殊需求。本文将详细探讨这两种方案的适用场景、技术特点及其最佳实践,让大家深入了解这两大方案如何帮助企业在高效可靠的数据存储和管理中取得成功。TDengine双副本(+仲裁者)为了满足部分客户在保证
TDengine 3.3.5.0 新功能 —— 查看库文件占用空间、压缩率
TDengine (老段)
TDengine 产品设计 数据库 时序数据库 物联网 tdengine 涛思数据 iot
1.背景TDengine之前版本一直没有通过SQL命令查看数据库占用的磁盘空间大小,从3.3.5.0开始,增加了这个方便且实用的小功能,这里详细介绍下。2.SQL基本语法selectexprfrominformation_schema.ins_disk_usage[wherecondtion]行为说明:查看各个vgroup的各个组件磁盘占用情况,并且可以通过查询语句计算压缩率等。示例:taos>s
【Python常用模块】_Pandas模块3-DataFrame对象
失心疯_2023
Python常用模块 数据分析 pandas 数据挖掘 python 数据统计 数据处理
课程推荐我的个人主页:失心疯的个人主页入门教程推荐:Python零基础入门教程合集虚拟环境搭建:Python项目虚拟环境(超详细讲解)PyQt5系列教程:PythonGUI(PyQt5)教程合集Oracle数据库教程:Oracle数据库教程合集MySQL数据库教程:MySQL数据库教程合集优质资源下载:资源下载合集
使用 C 语言操作 MySQL 实现图片写入与读取
(Charon)
mysql 数据库
在实际项目中,常常需要将图片或文件以二进制方式存储至数据库中,并能正确读取还原为文件。本文以C语言配合MySQLCAPI为例,完整演示如何实现将一张JPG图片写入数据库并再读出生成新图片文件的过程。项目背景我们使用如下表结构:--创建用户信息表CREATETABLETBL_USER(U_IDINTPRIMARYKEYAUTO_INCREMENT,--用户编号,整型,主键,自动递增,系统自动分配唯一
Cursor MySQL MCP 完整操作配置指南
z日火
开发分享 mcp cursor mysql
概述本指南帮助您在Windows环境下配置Cursor编辑器的MySQLMCP服务器,实现通过AI助手对数据库进行完整的增删改查操作。功能特性:✅自然语言数据库查询✅智能数据插入和更新✅安全的数据删除操作✅自动数据分析和报告生成快速配置1.环境检查#检查必要组件node--version#Node.js>=16mysql--version#MySQL5.7+cursor--version#Curs
运行两个不同项目(`ragflow` 和 `dify`)时,出现了 Redis 容器互相替换
z日火
人工智能类项目 redis 数据库 docker
问题描述在同时运行两个不同项目(ragflow和dify)时,出现了Redis容器互相替换的问题。具体表现为,当启动一个项目的Redis容器时,另一个项目的Redis容器会被停止或替换,导致两个项目的Redis容器无法同时存在。问题经过最初发现:在运行dify项目时,发现ragflow项目的Redis容器被替换为dify项目的Redis容器。尝试解决:通过修改docker-compose.yml文
高并发系统架构设计
茫茫人海一粒沙
系统架构 java
在互联网系统中,“高并发”从来不是稀罕事:双十一秒杀、12306抢票、新人注册峰值、热点直播点赞……,如果你的系统没有良好的架构设计,很容易出现:接口超时、数据错乱、系统宕机。本文从六个核心维度出发,系统性讲解如何构建一套“抗得住流量洪峰”的企业级高并发架构。一、系统拆分——降低系统耦合度,提高弹性伸缩能力核心思想将单体系统按业务域/模块/职责划分为多个服务;采用微服务架构(如SpringClou
C# 中 EventWaitHandle 实现多进程状态同步的深度解析
Leon@Lee
c# 开发语言
在现代软件开发中,多进程应用场景日益普遍。无论是分布式系统、微服务架构,还是传统的客户端-服务器模型,进程间的状态同步都是一个关键挑战。C#提供了多种同步原语,其中EventWaitHandle是一个强大的工具,特别适合处理跨进程的同步需求。本文将深入探讨EventWaitHandle的工作原理、使用场景及最佳实践。一、EventWaitHandle基础原理EventWaitHandle是.NET
【C++】命令模式
目录一、模式核心概念与结构二、C++实现示例:遥控器与家电控制三、命令模式的关键特性四、应用场景五、命令模式与其他设计模式的关系六、C++标准库中的命令模式应用七、优缺点分析八、实战案例:数据库事务命令九、实现注意事项如果这篇文章对你有所帮助,渴望获得你的一个点赞!命令模式(CommandPattern)是一种【行为型】设计模式,它将请求封装为对象,从而使你可以用不同的请求对客户端进行参数化,对请
mybatis批量插入数据时,如果是sql server库只返回一条自增主键
小小不吃香菜
mybatis sqlserver java
有个功能需要做个批量插入,表是自增主键,本来是很简单的事情,结果一测试发现一个神奇的事情,由于数据库是sqlserver的,插入一条时,id可以正常返回,多条时,就出现了标题的问题,只返回一个id,使用的是mybatis自带的jar包,甚至如何使用人家还加了备注在里面,很清晰,是这样的:然后我就按照上面描述的,自己加了一个自定义的Mapper,把主键名称改成我自己的,然后发现依然只能获取到一条,后
10招提升SQL性能的实战技巧
快乐才是自己的
sql mysql sql mysql oracle database hadoop 大数据
SQL语句常见性能优化方案在数据库应用中,SQL性能优化是核心技术要点。以下是经过验证的优化策略,按关键维度分类:一、索引优化精准索引覆盖对高频查询的WHERE、JOIN、ORDERBY字段建立索引复合索引遵循最左前缀原则:索引(a,b,c)仅支持WHEREa=?或WHEREa=?ANDb=?示例:将SELECT*FROMordersWHEREstatus='shipped'改为CREATEIND
flowable 修改历史变量
小云小白
springboot flowable 修改历史变量 springboot
简洁场景:对已结束流程的变量进行改动方法包含2个类1)核心方法,flowablecommand类:HistoricVariablesUpdateCmd2)执行command类:BpmProcessCommandService然后springboot执行方法即可:bpmProcessCommandService.executeUpdateHistoricVariables(processInstan
java毕业设计房产中介系统mybatis+源码+调试部署+系统+数据库+lw
兮兮科技
java mybatis 开发语言
java毕业设计房产中介系统mybatis+源码+调试部署+系统+数据库+lwjava毕业设计房产中介系统mybatis+源码+调试部署+系统+数据库+lw本源码技术栈:项目架构:B/S架构开发语言:Java语言开发软件:ideaeclipse前端技术:Layui、HTML、CSS、JS、JQuery等技术后端技术:JAVA运行环境:Win10、JDK1.8数据库:MySQL5.7/8.0源码地址
Springboot --- 整合spring-data-jpa和spring-data-elasticsearch
百世经纶『一页書』
Springboot Java springboot
Springboot---整合spring-data-jpa和spring-data-elasticsearch1.依赖2.配置文件3.代码部分3.1Entity3.2Repository3.3Config3.4Service3.5启动类3.6Test3.7项目结构SpringBoot:整合Ldap.SpringBoot:整合SpringDataJPA.SpringBoot:整合Elasticse
MongoDB与Redis有哪些区别
相遇在春风里
经验分享
MongoDB和Redis是两种不同类型的数据库,它们存在以下区别:一、数据模型MongoDBMongoDB是一个文档型数据库,它使用BSON(BinaryJSON)格式存储数据。数据以类似JSON的文档形式组织,每个文档可以有不同的结构(即模式自由)。例如,在一个存储用户信息的集合中,一个用户文档可能包含姓名、年龄、地址等字段,而另一个用户文档可能还包含额外的兴趣爱好字段。这种数据模型非常适合处
redis的scan使用详解,结合spring使用详解
黑皮爱学习
redis自学笔记 redis spring 数据库
Redis的SCAN命令是一种非阻塞的迭代器,用于逐步遍历数据库中的键,特别适合处理大数据库。下面详细介绍其使用方法及在Spring框架中的集成方式。SCAN命令基础SCAN命令的基本语法:SCANcursor[MATCHpattern][COUNTcount]cursor:迭代游标,初始为0,每次迭代返回新的游标值。MATCHpattern:可选,用于过滤键的模式(如user:*)。COUNTc
辗转相处求最大公约数
沐刃青蛟
C++ 漏洞
无言面对”江东父老“了,接触编程一年了,今天发现还不会辗转相除法求最大公约数。惭愧惭愧!
为此,总结一下以方便日后忘了好查找。
1.输入要比较的两个数a,b
忽略:2.比较大小(因为后面要的是大的数对小的数做%操作)
3.辗转相除(用循环不停的取余,如a%b,直至b=0)
4.最后的a为两数的最大公约数
&
F5负载均衡会话保持技术及原理技术白皮书
bijian1013
F5 负载均衡
一.什么是会话保持? 在大多数电子商务的应用系统或者需要进行用户身份认证的在线系统中,一个客户与服务器经常经过好几次的交互过程才能完成一笔交易或者是一个请求的完成。由于这几次交互过程是密切相关的,服务器在进行这些交互过程的某一个交互步骤时,往往需要了解上一次交互过程的处理结果,或者上几步的交互过程结果,服务器进行下
Object.equals方法:重载还是覆盖
Cwind
java generics override overload
本文译自StackOverflow上对此问题的讨论。
原问题链接
在阅读Joshua Bloch的《Effective Java(第二版)》第8条“覆盖equals时请遵守通用约定”时对如下论述有疑问:
“不要将equals声明中的Object对象替换为其他的类型。程序员编写出下面这样的equals方法并不鲜见,这会使程序员花上数个小时都搞不清它为什么不能正常工作:”
pu
初始线程
15700786134
暑假学习的第一课是讲线程,任务是是界面上的一条线运动起来。
既然是在界面上,那必定得先有一个界面,所以第一步就是,自己的类继承JAVA中的JFrame,在新建的类中写一个界面,代码如下:
public class ShapeFr
Linux的tcpdump
被触发
tcpdump
用简单的话来定义tcpdump,就是:dump the traffic on a network,根据使用者的定义对网络上的数据包进行截获的包分析工具。 tcpdump可以将网络中传送的数据包的“头”完全截获下来提供分析。它支 持针对网络层、协议、主机、网络或端口的过滤,并提供and、or、not等逻辑语句来帮助你去掉无用的信息。
实用命令实例
默认启动
tcpdump
普通情况下,直
安卓程序listview优化后还是卡顿
肆无忌惮_
ListView
最近用eclipse开发一个安卓app,listview使用baseadapter,里面有一个ImageView和两个TextView。使用了Holder内部类进行优化了还是很卡顿。后来发现是图片资源的问题。把一张分辨率高的图片放在了drawable-mdpi文件夹下,当我在每个item中显示,他都要进行缩放,导致很卡顿。解决办法是把这个高分辨率图片放到drawable-xxhdpi下。
&nb
扩展easyUI tab控件,添加加载遮罩效果
知了ing
jquery
(function () {
$.extend($.fn.tabs.methods, {
//显示遮罩
loading: function (jq, msg) {
return jq.each(function () {
var panel = $(this).tabs(&
gradle上传jar到nexus
矮蛋蛋
gradle
原文地址:
https://docs.gradle.org/current/userguide/maven_plugin.html
configurations {
deployerJars
}
dependencies {
deployerJars "org.apache.maven.wagon
千万条数据外网导入数据库的解决方案。
alleni123
sql mysql
从某网上爬了数千万的数据,存在文本中。
然后要导入mysql数据库。
悲剧的是数据库和我存数据的服务器不在一个内网里面。。
ping了一下, 19ms的延迟。
于是下面的代码是没用的。
ps = con.prepareStatement(sql);
ps.setString(1, info.getYear())............;
ps.exec
JAVA IO InputStreamReader和OutputStreamReader
百合不是茶
JAVA.io操作 字符流
这是第三篇关于java.io的文章了,从开始对io的不了解-->熟悉--->模糊,是这几天来对文件操作中最大的感受,本来自己认为的熟悉了的,刚刚在回想起前面学的好像又不是很清晰了,模糊对我现在或许是最好的鼓励 我会更加的去学 加油!:
JAVA的API提供了另外一种数据保存途径,使用字符流来保存的,字符流只能保存字符形式的流
字节流和字符的难点:a,怎么将读到的数据
MO、MT解读
bijian1013
GSM
MO= Mobile originate,上行,即用户上发给SP的信息。MT= Mobile Terminate,下行,即SP端下发给用户的信息;
上行:mo提交短信到短信中心下行:mt短信中心向特定的用户转发短信,你的短信是这样的,你所提交的短信,投递的地址是短信中心。短信中心收到你的短信后,存储转发,转发的时候就会根据你填写的接收方号码寻找路由,下发。在彩信领域是一样的道理。下行业务:由SP
五个JavaScript基础问题
bijian1013
JavaScript call apply this Hoisting
下面是五个关于前端相关的基础问题,但却很能体现JavaScript的基本功底。
问题1:Scope作用范围
考虑下面的代码:
(function() {
var a = b = 5;
})();
console.log(b);
什么会被打印在控制台上?
回答:
上面的代码会打印 5。
&nbs
【Thrift二】Thrift Hello World
bit1129
Hello world
本篇,不考虑细节问题和为什么,先照葫芦画瓢写一个Thrift版本的Hello World,了解Thrift RPC服务开发的基本流程
1. 在Intellij中创建一个Maven模块,加入对Thrift的依赖,同时还要加上slf4j依赖,如果不加slf4j依赖,在后面启动Thrift Server时会报错
<dependency>
【Avro一】Avro入门
bit1129
入门
本文的目的主要是总结下基于Avro Schema代码生成,然后进行序列化和反序列化开发的基本流程。需要指出的是,Avro并不要求一定得根据Schema文件生成代码,这对于动态类型语言很有用。
1. 添加Maven依赖
<?xml version="1.0" encoding="UTF-8"?>
<proj
安装nginx+ngx_lua支持WAF防护功能
ronin47
需要的软件:LuaJIT-2.0.0.tar.gz nginx-1.4.4.tar.gz &nb
java-5.查找最小的K个元素-使用最大堆
bylijinnan
java
import java.util.Arrays;
import java.util.Random;
public class MinKElement {
/**
* 5.最小的K个元素
* I would like to use MaxHeap.
* using QuickSort is also OK
*/
public static void
TCP的TIME-WAIT
bylijinnan
socket
原文连接:
http://vincent.bernat.im/en/blog/2014-tcp-time-wait-state-linux.html
以下为对原文的阅读笔记
说明:
主动关闭的一方称为local end,被动关闭的一方称为remote end
本地IP、本地端口、远端IP、远端端口这一“四元组”称为quadruplet,也称为socket
1、TIME_WA
jquery ajax 序列化表单
coder_xpf
Jquery ajax 序列化
checkbox 如果不设定值,默认选中值为on;设定值之后,选中则为设定的值
<input type="checkbox" name="favor" id="favor" checked="checked"/>
$("#favor&quo
Apache集群乱码和最高并发控制
cuisuqiang
apache tomcat 并发 集群 乱码
都知道如果使用Http访问,那么在Connector中增加URIEncoding即可,其实使用AJP时也一样,增加useBodyEncodingForURI和URIEncoding即可。
最大连接数也是一样的,增加maxThreads属性即可,如下,配置如下:
<Connector maxThreads="300" port="8019" prot
websocket
dalan_123
websocket
一、低延迟的客户端-服务器 和 服务器-客户端的连接
很多时候所谓的http的请求、响应的模式,都是客户端加载一个网页,直到用户在进行下一次点击的时候,什么都不会发生。并且所有的http的通信都是客户端控制的,这时候就需要用户的互动或定期轮训的,以便从服务器端加载新的数据。
通常采用的技术比如推送和comet(使用http长连接、无需安装浏览器安装插件的两种方式:基于ajax的长
菜鸟分析网络执法官
dcj3sjt126com
网络
最近在论坛上看到很多贴子在讨论网络执法官的问题。菜鸟我正好知道这回事情.人道"人之患好为人师" 手里忍不住,就写点东西吧. 我也很忙.又没有MM,又没有MONEY....晕倒有点跑题.
OK,闲话少说,切如正题. 要了解网络执法官的原理. 就要先了解局域网的通信的原理.
前面我们看到了.在以太网上传输的都是具有以太网头的数据包. 
Android相对布局属性全集
dcj3sjt126com
android
RelativeLayout布局android:layout_marginTop="25dip" //顶部距离android:gravity="left" //空间布局位置android:layout_marginLeft="15dip //距离左边距
// 相对于给定ID控件android:layout_above 将该控件的底部置于给定ID的
Tomcat内存设置详解
eksliang
jvm tomcat tomcat内存设置
Java内存溢出详解
一、常见的Java内存溢出有以下三种:
1. java.lang.OutOfMemoryError: Java heap space ----JVM Heap(堆)溢出JVM在启动的时候会自动设置JVM Heap的值,其初始空间(即-Xms)是物理内存的1/64,最大空间(-Xmx)不可超过物理内存。
可以利用JVM提
Java6 JVM参数选项
greatwqs
java HotSpot jvm jvm参数 JVM Options
Java 6 JVM参数选项大全(中文版)
作者:Ken Wu
Email:
[email protected]
转载本文档请注明原文链接 http://kenwublog.com/docs/java6-jvm-options-chinese-edition.htm!
本文是基于最新的SUN官方文档Java SE 6 Hotspot VM Opt
weblogic创建JMC
i5land
weblogic jms
进入 weblogic控制太
1.创建持久化存储
--Services--Persistant Stores--new--Create FileStores--name随便起--target默认--Directory写入在本机建立的文件夹的路径--ok
2.创建JMS服务器
--Services--Messaging--JMS Servers--new--name随便起--Pers
基于 DHT 网络的磁力链接和BT种子的搜索引擎架构
justjavac
DHT
上周开发了一个磁力链接和 BT 种子的搜索引擎 {Magnet & Torrent},本文简单介绍一下主要的系统功能和用到的技术。
系统包括几个独立的部分:
使用 Python 的 Scrapy 框架开发的网络爬虫,用来爬取磁力链接和种子;
使用 PHP CI 框架开发的简易网站;
搜索引擎目前直接使用的 MySQL,将来可以考虑使
sql添加、删除表中的列
macroli
sql
添加没有默认值:alter table Test add BazaarType char(1)
有默认值的添加列:alter table Test add BazaarType char(1) default(0)
删除没有默认值的列:alter table Test drop COLUMN BazaarType
删除有默认值的列:先删除约束(默认值)alter table Test DRO
PHP中二维数组的排序方法
abc123456789cba
排序 二维数组 PHP
<?php/*** @package BugFree* @version $Id: FunctionsMain.inc.php,v 1.32 2005/09/24 11:38:37 wwccss Exp $*** Sort an two-dimension array by some level
hive优化之------控制hive任务中的map数和reduce数
superlxw1234
hive hive优化
一、 控制hive任务中的map数: 1. 通常情况下,作业会通过input的目录产生一个或者多个map任务。 主要的决定因素有: input的文件总个数,input的文件大小,集群设置的文件块大小(目前为128M, 可在hive中通过set dfs.block.size;命令查看到,该参数不能自定义修改);2. 
Spring Boot 1.2.4 发布
wiselyman
spring boot
Spring Boot 1.2.4已于6.4日发布,repo.spring.io and Maven Central可以下载(推荐使用maven或者gradle构建下载)。
这是一个维护版本,包含了一些修复small number of fixes,建议所有的用户升级。
Spring Boot 1.3的第一个里程碑版本将在几天后发布,包含许多