目前DataX3.0开源版本支持kingbasees82版本,但是没支持人大金仓kingbase86,由于两个版本的jdbc驱动不一样,包路径也不同,所以需要重新开发reader和writer重新支持,所以开发了kingbasees86reader、kingbasees86writer,以支持kingbase86的读写。
在DataBaseType枚举下新增
KingbaseES86("kingbasees86","com.kingbase86.Driver"),
Kingbasees86Reader插件实现了从KingbaseES读取数据。在底层实现上,Kingbasees86Reader通过JDBC连接远程KingbaseES数据库,并执行相应的sql语句将数据从KingbaseES库中SELECT出来。
简而言之,Kingbasees86Reader通过JDBC连接器连接到远程的KingbaseES数据库,并根据用户配置的信息生成查询SELECT SQL语句并发送到远程KingbaseES数据库,并将该SQL执行返回结果使用DataX自定义的数据类型拼装为抽象的数据集,并传递给下游Writer处理。
对于用户配置Table、Column、Where的信息,Kingbasees86Reader将其拼接为SQL语句发送到KingbaseES数据库;对于用户配置querySql信息,Kingbasees86Reader直接将其发送到KingbaseES数据库。
{
"job": {
"setting": {
"speed": {
//设置传输速度,单位为byte/s,DataX运行会尽可能达到该速度但是不超过它.
"byte": 1048576
},
//出错限制
"errorLimit": {
//出错的record条数上限,当大于该值即报错。
"record": 0,
//出错的record百分比上限 1.0表示100%,0.02表示2%
"percentage": 0.02
}
},
"content": [
{
"reader": {
"name": "kingbasees86reader",
"parameter": {
// 数据库连接用户名
"username": "xx",
// 数据库连接密码
"password": "xx",
"column": [
"id","name"
],
//切分主键
"splitPk": "id",
"connection": [
{
"table": [
"table"
],
"jdbcUrl": [
"jdbc:kingbase86://host:port/database"
]
}
]
}
},
"writer": {
//writer类型
"name": "streamwriter",
//是否打印内容
"parameter": {
"print":true,
}
}
}
]
}
}
{
"job": {
"setting": {
"speed": 1048576
},
"content": [
{
"reader": {
"name": "kingbasees86reader",
"parameter": {
"username": "xx",
"password": "xx",
"where": "",
"connection": [
{
"querySql": [
"select db_id,on_line_flag from db_info where db_id < 10;"
],
"jdbcUrl": [
"jdbc:kingbase86://host:port/database", "jdbc:kingbase86://host:port/database"
]
}
]
}
},
"writer": {
"name": "streamwriter",
"parameter": {
"print": false,
"encoding": "UTF-8"
}
}
}
]
}
}
jdbcUrl
描述:描述的是到对端数据库的JDBC连接信息,使用JSON的数组描述,并支持一个库填写多个连接地址。之所以使用JSON数组描述连接信息,是因为阿里集团内部支持多个IP探测,如果配置了多个,Kingbasees86Reader可以依次探测ip的可连接性,直到选择一个合法的IP。如果全部连接失败,Kingbasees86Reader报错。 注意,jdbcUrl必须包含在connection配置单元中。对于阿里集团外部使用情况,JSON数组填写一个JDBC连接即可。
jdbcUrl按照KingbaseES官方规范,并可以填写连接附件控制信息。具体请参看KingbaseES官方文档。
必选:是
默认值:无
username
描述:数据源的用户名
必选:是
默认值:无
password
描述:数据源指定用户名的密码
必选:是
默认值:无
table
描述:所选取的需要同步的表。使用JSON的数组描述,因此支持多张表同时抽取。当配置为多张表时,用户自己需保证多张表是同一schema结构,Kingbasees86Reader不予检查表是否同一逻辑表。注意,table必须包含在connection配置单元中。
必选:是
默认值:无
column
描述:所配置的表中需要同步的列名集合,使用JSON的数组描述字段信息。用户使用*代表默认使用所有列配置,例如[‘*’]。
支持列裁剪,即列可以挑选部分列进行导出。
支持列换序,即列可以不按照表schema信息进行导出。
支持常量配置,用户需要按照KingbaseES语法格式:
[“id”, “‘hello’::varchar”, “true”, “2.5::real”, “power(2,3)”]
id为普通列名,‘hello’::varchar为字符串常量,true为布尔值,2.5为浮点数, power(2,3)为函数。
column必须用户显示指定同步的列集合,不允许为空!
必选:是
默认值:无
splitPk
描述:Kingbasees86Reader进行数据抽取时,如果指定splitPk,表示用户希望使用splitPk代表的字段进行数据分片,DataX因此会启动并发任务进行数据同步,这样可以大大提供数据同步的效能。
推荐splitPk用户使用表主键,因为表主键通常情况下比较均匀,因此切分出来的分片也不容易出现数据热点。
目前splitPk仅支持整形数据切分,不支持浮点、字符串型、日期等其他类型
。如果用户指定其他非支持类型,Kingbasees86Reader将报错!
splitPk设置为空,底层将视作用户不允许对单表进行切分,因此使用单通道进行抽取。
必选:否
默认值:空
where
描述:筛选条件,Kingbasees86Reader根据指定的column、table、where条件拼接SQL,并根据这个SQL进行数据抽取。在实际业务场景中,往往会选择当天的数据进行同步,可以将where条件指定为gmt_create > $bizdate 。注意:不可以将where条件指定为limit 10,limit不是SQL的合法where子句。
where条件可以有效地进行业务增量同步。 where条件不配置或者为空,视作全表同步数据。
必选:否
默认值:无
querySql
当用户配置querySql时,Kingbasees86Reader直接忽略table、column、where条件的配置
。
必选:否
默认值:无
fetchSize
注意,该值过大(>2048)可能造成DataX进程OOM。
。
必选:否
默认值:1024
目前Kingbasees86Reader支持大部分KingbaseES类型,但也存在部分个别类型没有支持的情况,请注意检查你的类型。
下面列出Kingbasees86Reader针对KingbaseES类型转换列表:
DataX 内部类型 | KingbaseES 数据类型 |
---|---|
Long | bigint, bigserial, integer, smallint, serial |
Double | double precision, money, numeric, real |
String | varchar, char, text, bit, inet |
Date | date, time, timestamp |
Boolean | bool |
Bytes | bytea |
请注意:
除上述罗列字段类型外,其他类型均不支持; money,inet,bit需用户使用a_inet::varchar类似的语法转换
。package.xml
<assembly
xmlns="http://maven.apache.org/plugins/maven-assembly-plugin/assembly/1.1.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/plugins/maven-assembly-plugin/assembly/1.1.0 http://maven.apache.org/xsd/assembly-1.1.0.xsd">
<id>id>
<formats>
<format>dirformat>
formats>
<includeBaseDirectory>falseincludeBaseDirectory>
<fileSets>
<fileSet>
<directory>src/main/resourcesdirectory>
<includes>
<include>plugin.jsoninclude>
<include>plugin_job_template.jsoninclude>
includes>
<outputDirectory>plugin/reader/kingbasees86readeroutputDirectory>
fileSet>
<fileSet>
<directory>target/directory>
<includes>
<include>kingbasees86reader-0.0.1-SNAPSHOT.jarinclude>
includes>
<outputDirectory>plugin/reader/kingbasees86readeroutputDirectory>
fileSet>
<fileSet>
<directory>src/main/libsdirectory>
<includes>
<include>*.*include>
includes>
<outputDirectory>plugin/reader/kingbasees86reader/libsoutputDirectory>
fileSet>
fileSets>
<dependencySets>
<dependencySet>
<useProjectArtifact>falseuseProjectArtifact>
<outputDirectory>plugin/reader/kingbasees86reader/libsoutputDirectory>
<scope>runtimescope>
dependencySet>
dependencySets>
assembly>
Constant.java
package com.alibaba.datax.plugin.reader.kingbasees86reader;
public class Constant {
public static final int DEFAULT_FETCH_SIZE = 1000;
}
Kingbasees86Reader.java
package com.alibaba.datax.plugin.reader.kingbasees86reader;
import com.alibaba.datax.common.exception.DataXException;
import com.alibaba.datax.common.plugin.RecordSender;
import com.alibaba.datax.common.spi.Reader;
import com.alibaba.datax.common.util.Configuration;
import com.alibaba.datax.plugin.rdbms.reader.CommonRdbmsReader;
import com.alibaba.datax.plugin.rdbms.util.DBUtilErrorCode;
import com.alibaba.datax.plugin.rdbms.util.DataBaseType;
import java.util.List;
public class Kingbasees86Reader extends Reader {
private static final DataBaseType DATABASE_TYPE = DataBaseType.KingbaseES86;
public static class Job extends Reader.Job {
private Configuration originalConfig;
private CommonRdbmsReader.Job commonRdbmsReaderMaster;
@Override
public void init() {
this.originalConfig = super.getPluginJobConf();
int fetchSize = this.originalConfig.getInt(com.alibaba.datax.plugin.rdbms.reader.Constant.FETCH_SIZE,
Constant.DEFAULT_FETCH_SIZE);
if (fetchSize < 1) {
throw DataXException.asDataXException(DBUtilErrorCode.REQUIRED_VALUE,
String.format("您配置的fetchSize有误,根据DataX的设计,fetchSize : [%d] 设置值不能小于 1.", fetchSize));
}
this.originalConfig.set(com.alibaba.datax.plugin.rdbms.reader.Constant.FETCH_SIZE, fetchSize);
this.commonRdbmsReaderMaster = new CommonRdbmsReader.Job(DATABASE_TYPE);
this.commonRdbmsReaderMaster.init(this.originalConfig);
}
@Override
public List<Configuration> split(int adviceNumber) {
return this.commonRdbmsReaderMaster.split(this.originalConfig, adviceNumber);
}
@Override
public void post() {
this.commonRdbmsReaderMaster.post(this.originalConfig);
}
@Override
public void destroy() {
this.commonRdbmsReaderMaster.destroy(this.originalConfig);
}
}
public static class Task extends Reader.Task {
private Configuration readerSliceConfig;
private CommonRdbmsReader.Task commonRdbmsReaderSlave;
@Override
public void init() {
this.readerSliceConfig = super.getPluginJobConf();
this.commonRdbmsReaderSlave = new CommonRdbmsReader.Task(DATABASE_TYPE, super.getTaskGroupId(), super.getTaskId());
this.commonRdbmsReaderSlave.init(this.readerSliceConfig);
}
@Override
public void startRead(RecordSender recordSender) {
int fetchSize = this.readerSliceConfig.getInt(com.alibaba.datax.plugin.rdbms.reader.Constant.FETCH_SIZE);
this.commonRdbmsReaderSlave.startRead(this.readerSliceConfig, recordSender,
super.getTaskPluginCollector(), fetchSize);
}
@Override
public void post() {
this.commonRdbmsReaderSlave.post(this.readerSliceConfig);
}
@Override
public void destroy() {
this.commonRdbmsReaderSlave.destroy(this.readerSliceConfig);
}
}
}
plugin.json
{
"name": "kingbasees86reader",
"class": "com.alibaba.datax.plugin.reader.kingbasees86reader.Kingbasees86Reader",
"description": "useScene: prod. mechanism: Jdbc connection using the database, execute select sql, retrieve data from the ResultSet. warn: The more you know about the database, the less problems you encounter.",
"developer": "alibaba"
}
plugin_job_template.json
{
"name": "kingbasees86reader",
"parameter": {
"username": "",
"password": "",
"connection": [
{
"table": [],
"jdbcUrl": []
}
]
}
}
pom.xml
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<parent>
<artifactId>datax-allartifactId>
<groupId>com.alibaba.dataxgroupId>
<version>0.0.1-SNAPSHOTversion>
parent>
<modelVersion>4.0.0modelVersion>
<artifactId>kingbasees86readerartifactId>
<name>kingbasees86readername>
<packaging>jarpackaging>
<dependencies>
<dependency>
<groupId>com.alibaba.dataxgroupId>
<artifactId>datax-commonartifactId>
<version>${datax-project-version}version>
<exclusions>
<exclusion>
<artifactId>slf4j-log4j12artifactId>
<groupId>org.slf4jgroupId>
exclusion>
exclusions>
dependency>
<dependency>
<groupId>org.slf4jgroupId>
<artifactId>slf4j-apiartifactId>
dependency>
<dependency>
<groupId>ch.qos.logbackgroupId>
<artifactId>logback-classicartifactId>
dependency>
<dependency>
<groupId>com.alibaba.dataxgroupId>
<artifactId>plugin-rdbms-utilartifactId>
<version>${datax-project-version}version>
dependency>
<dependency>
<groupId>com.kingbase86groupId>
<artifactId>kingbase86artifactId>
<version>8.6.0version>
<scope>systemscope>
<systemPath>${basedir}/src/main/libs/kingbase8-8.6.0.jarsystemPath>
dependency>
dependencies>
<build>
<plugins>
<plugin>
<artifactId>maven-compiler-pluginartifactId>
<configuration>
<source>${jdk-version}source>
<target>${jdk-version}target>
<encoding>${project-sourceEncoding}encoding>
configuration>
plugin>
<plugin>
<artifactId>maven-assembly-pluginartifactId>
<configuration>
<descriptors>
<descriptor>src/main/assembly/package.xmldescriptor>
descriptors>
<finalName>dataxfinalName>
configuration>
<executions>
<execution>
<id>dwzipid>
<phase>packagephase>
<goals>
<goal>singlegoal>
goals>
execution>
executions>
plugin>
plugins>
build>
project>
注意:驱动包可以去网上找找看,这里暂不提供
在根目录的package.xml文件下添加
<fileSet>
<directory>kingbasees86reader/target/datax/directory>
<includes>
<include>**/*.*include>
includes>
<outputDirectory>dataxoutputDirectory>
fileSet>
在根目录的pom.xml文件下添加
<module>kingbasees86readermodule>
Kingbasees86Writer插件实现了写入数据到 KingbaseES主库目的表的功能。在底层实现上,Kingbasees86Writer通过JDBC连接远程 KingbaseES 数据库,并执行相应的 insert into … sql 语句将数据写入 KingbaseES,内部会分批次提交入库。
Kingbasees86Writer面向ETL开发工程师,他们使用Kingbasees86Writer从数仓导入数据到KingbaseES。同时 Kingbasees86Writer亦可以作为数据迁移工具为DBA等用户提供服务。
Kingbasees86Writer通过 DataX 框架获取 Reader 生成的协议数据,根据你配置生成相应的SQL插入语句
insert into...
(当主键/唯一性索引冲突时会写不进去冲突的行)注意:
1. 目的表所在数据库必须是主库才能写入数据;整个任务至少需具备 insert into...的权限,是否需要其他权限,取决于你任务配置中在 preSql 和 postSql 中指定的语句。
2. Kingbasees86Writer和MysqlWriter不同,不支持配置writeMode参数。
{
"job": {
"setting": {
"speed": {
"channel": 1
}
},
"content": [
{
"reader": {
"name": "streamreader",
"parameter": {
"column" : [
{
"value": "DataX",
"type": "string"
},
{
"value": 19880808,
"type": "long"
},
{
"value": "1988-08-08 08:08:08",
"type": "date"
},
{
"value": true,
"type": "bool"
},
{
"value": "test",
"type": "bytes"
}
],
"sliceRecordCount": 1000
}
},
"writer": {
"name": "kingbasees86writer",
"parameter": {
"username": "xx",
"password": "xx",
"column": [
"id",
"name"
],
"preSql": [
"delete from test"
],
"connection": [
{
"jdbcUrl": "jdbc:kingbase86://127.0.0.1:3002/datax",
"table": [
"test"
]
}
]
}
}
}
]
}
}
jdbcUrl
描述:目的数据库的 JDBC 连接信息 ,jdbcUrl必须包含在connection配置单元中。
注意:1、在一个数据库上只能配置一个值。
2、jdbcUrl按照KingbaseES官方规范,并可以填写连接附加参数信息。具体请参看KingbaseES官方文档或者咨询对应 DBA。
必选:是
默认值:无
username
描述:目的数据库的用户名
必选:是
默认值:无
password
描述:目的数据库的密码
必选:是
默认值:无
table
描述:目的表的表名称。支持写入一个或者多个表。当配置为多张表时,必须确保所有表结构保持一致。
注意:table 和 jdbcUrl 必须包含在 connection 配置单元中
必选:是
默认值:无
column
描述:目的表需要写入数据的字段,字段之间用英文逗号分隔。例如: “column”: [“id”,“name”,“age”]。如果要依次写入全部列,使用*表示, 例如: “column”: [“*”]
注意:1、我们强烈不推荐你这样配置,因为当你目的表字段个数、类型等有改动时,你的任务可能运行不正确或者失败
2、此处 column 不能配置任何常量值
必选:是
默认值:否
preSql
描述:写入数据到目的表前,会先执行这里的标准语句。如果 Sql 中有你需要操作到的表名称,请使用 @table
表示,这样在实际执行 Sql 语句时,会对变量按照实际表名称进行替换。比如你的任务是要写入到目的端的100个同构分表(表名称为:datax_00,datax01, … datax_98,datax_99),并且你希望导入数据前,先对表中数据进行删除操作,那么你可以这样配置:"preSql":["delete from @table"]
,效果是:在执行到每个表写入数据前,会先执行对应的 delete from 对应表名称
必选:否
默认值:无
postSql
描述:写入数据到目的表后,会执行这里的标准语句。(原理同 preSql )
必选:否
默认值:无
batchSize
描述:一次性批量提交的记录数大小,该值可以极大减少DataX与KingbaseES的网络交互次数,并提升整体吞吐量。但是该值设置过大可能会造成DataX运行进程OOM情况。
必选:否
默认值:1024
目前 Kingbasees86Writer支持大部分 KingbaseES类型,但也存在部分没有支持的情况,请注意检查你的类型。
下面列出 Kingbasees86Writer针对 KingbaseES类型转换列表:
DataX 内部类型 | KingbaseES 数据类型 |
---|---|
Long | bigint, bigserial, integer, smallint, serial |
Double | double precision, money, numeric, real |
String | varchar, char, text, bit |
Date | date, time, timestamp |
Boolean | bool |
Bytes | bytea |
Q: Kingbasees86Writer 执行 postSql 语句报错,那么数据导入到目标数据库了吗?
A: DataX 导入过程存在三块逻辑,pre 操作、导入操作、post 操作,其中任意一环报错,DataX 作业报错。由于 DataX 不能保证在同一个事务完成上述几个操作,因此有可能数据已经落入到目标端。
Q: 按照上述说法,那么有部分脏数据导入数据库,如果影响到线上数据库怎么办?
A: 目前有两种解法,第一种配置 pre 语句,该 sql 可以清理当天导入数据, DataX 每次导入时候可以把上次清理干净并导入完整数据。
第二种,向临时表导入数据,完成后再 rename 到线上表。
package.xml
<assembly
xmlns="http://maven.apache.org/plugins/maven-assembly-plugin/assembly/1.1.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/plugins/maven-assembly-plugin/assembly/1.1.0 http://maven.apache.org/xsd/assembly-1.1.0.xsd">
<id>id>
<formats>
<format>dirformat>
formats>
<includeBaseDirectory>falseincludeBaseDirectory>
<fileSets>
<fileSet>
<directory>src/main/resourcesdirectory>
<includes>
<include>plugin.jsoninclude>
<include>plugin_job_template.jsoninclude>
includes>
<outputDirectory>plugin/writer/kingbasees86writeroutputDirectory>
fileSet>
<fileSet>
<directory>target/directory>
<includes>
<include>kingbasees86writer-0.0.1-SNAPSHOT.jarinclude>
includes>
<outputDirectory>plugin/writer/kingbasees86writeroutputDirectory>
fileSet>
<fileSet>
<directory>src/main/libsdirectory>
<includes>
<include>*.*include>
includes>
<outputDirectory>plugin/writer/kingbasees86writer/libsoutputDirectory>
fileSet>
fileSets>
<dependencySets>
<dependencySet>
<useProjectArtifact>falseuseProjectArtifact>
<outputDirectory>plugin/writer/kingbasees86writer/libsoutputDirectory>
<scope>runtimescope>
dependencySet>
dependencySets>
assembly>
Kingbasees86Writer.java
package com.alibaba.datax.plugin.writer.kingbasees86writer;
import com.alibaba.datax.common.exception.DataXException;
import com.alibaba.datax.common.plugin.RecordReceiver;
import com.alibaba.datax.common.spi.Writer;
import com.alibaba.datax.common.util.Configuration;
import com.alibaba.datax.plugin.rdbms.util.DBUtilErrorCode;
import com.alibaba.datax.plugin.rdbms.util.DataBaseType;
import com.alibaba.datax.plugin.rdbms.writer.CommonRdbmsWriter;
import com.alibaba.datax.plugin.rdbms.writer.Key;
import java.util.List;
public class Kingbasees86Writer extends Writer {
private static final DataBaseType DATABASE_TYPE = DataBaseType.KingbaseES86;
public static class Job extends Writer.Job {
private Configuration originalConfig = null;
private CommonRdbmsWriter.Job commonRdbmsWriterMaster;
@Override
public void init() {
this.originalConfig = super.getPluginJobConf();
// warn:not like mysql, KingbaseES only support insert mode, don't use
String writeMode = this.originalConfig.getString(Key.WRITE_MODE);
if (null != writeMode) {
throw DataXException.asDataXException(DBUtilErrorCode.CONF_ERROR,
String.format("写入模式(writeMode)配置有误. 因为KingbaseES不支持配置参数项 writeMode: %s, KingbaseES仅使用insert sql 插入数据. 请检查您的配置并作出修改.", writeMode));
}
this.commonRdbmsWriterMaster = new CommonRdbmsWriter.Job(DATABASE_TYPE);
this.commonRdbmsWriterMaster.init(this.originalConfig);
}
@Override
public void prepare() {
this.commonRdbmsWriterMaster.prepare(this.originalConfig);
}
@Override
public List<Configuration> split(int mandatoryNumber) {
return this.commonRdbmsWriterMaster.split(this.originalConfig, mandatoryNumber);
}
@Override
public void post() {
this.commonRdbmsWriterMaster.post(this.originalConfig);
}
@Override
public void destroy() {
this.commonRdbmsWriterMaster.destroy(this.originalConfig);
}
}
public static class Task extends Writer.Task {
private Configuration writerSliceConfig;
private CommonRdbmsWriter.Task commonRdbmsWriterSlave;
@Override
public void init() {
this.writerSliceConfig = super.getPluginJobConf();
this.commonRdbmsWriterSlave = new CommonRdbmsWriter.Task(DATABASE_TYPE){
@Override
public String calcValueHolder(String columnType){
if("serial".equalsIgnoreCase(columnType)){
return "?::int";
}else if("bit".equalsIgnoreCase(columnType)){
return "?::bit varying";
}
return "?::" + columnType;
}
};
this.commonRdbmsWriterSlave.init(this.writerSliceConfig);
}
@Override
public void prepare() {
this.commonRdbmsWriterSlave.prepare(this.writerSliceConfig);
}
public void startWrite(RecordReceiver recordReceiver) {
this.commonRdbmsWriterSlave.startWrite(recordReceiver, this.writerSliceConfig, super.getTaskPluginCollector());
}
@Override
public void post() {
this.commonRdbmsWriterSlave.post(this.writerSliceConfig);
}
@Override
public void destroy() {
this.commonRdbmsWriterSlave.destroy(this.writerSliceConfig);
}
}
}
plugin.json
{
"name": "kingbasees86writer",
"class": "com.alibaba.datax.plugin.writer.kingbasees86writer.Kingbasees86Writer",
"description": "useScene: prod. mechanism: Jdbc connection using the database, execute insert sql. warn: The more you know about the database, the less problems you encounter.",
"developer": "alibaba"
}
plugin_job_template.json
{
"name": "kingbasees86writer",
"parameter": {
"username": "",
"password": "",
"column": [],
"preSql": [],
"connection": [
{
"jdbcUrl": "",
"table": []
}
],
"preSql": [],
"postSql": []
}
}
pom.xml
4.0.0
com.alibaba.datax
datax-all
0.0.1-SNAPSHOT
kingbasees86writer
kingbasees86writer
jar
writer data into kingbasees database
com.alibaba.datax
datax-common
${datax-project-version}
slf4j-log4j12
org.slf4j
org.slf4j
slf4j-api
ch.qos.logback
logback-classic
com.alibaba.datax
plugin-rdbms-util
${datax-project-version}
com.kingbase86
kingbase86
8.6.0
system
${basedir}/src/main/libs/kingbase8-8.6.0.jar
maven-compiler-plugin
${jdk-version}
${project-sourceEncoding}
maven-assembly-plugin
src/main/assembly/package.xml
datax
dwzip
package
single
/