简介: 本文主要介绍Amazon Redshift如何迁移到MaxCompute,主要从语法对比和数据迁移两方面介绍,由于Amazon Redshift和MaxCompute存在语法差异,这篇文章讲解了一下语法差异
本文档详细介绍了Redshift和MaxCompute之间SQL语法的异同。这篇文档有助于加快sql任务迁移到MaxCompute。由于Redshift和MaxCompute之间语法存在很多差异,因此我们需要修改Redshift上编写的脚本,然后才能在MaxCompute中使用,因为服务之间的SQL方言不同。
类别 |
MaxCompute |
建议转化成MaxCompute类型 |
Redshift |
|
数值类型 |
smallint |
Y |
Y |
Y |
integer |
N |
int |
Y |
|
bigint |
Y |
int |
Y |
|
decimal |
Y |
Y |
Y |
|
numeric |
N |
decimal |
Y |
|
real |
N |
float |
Y |
|
double |
Y |
Y |
Y |
|
float |
Y |
float |
Y |
|
TINYINT |
Y |
smallint |
N |
|
字符类型 |
varchar(n) |
Y |
Y |
Y |
char(n) |
Y |
Y |
Y |
|
STRING |
Y |
|||
text |
N |
string |
Y |
|
日期 |
TIMESTAMP |
Y |
Y |
Y |
TIMESTAMPTZ |
N |
Y |
||
DATE |
Y |
Y |
Y |
|
TIME |
N |
Y |
||
DateTime |
Y |
N |
||
boolean 数据类型 |
boolean |
Y |
Y |
Y |
复杂数据类型 |
ARRAY |
Y |
Y |
N |
MAP |
Y |
Y |
N |
|
STRUCT |
Y |
Y |
N |
|
HLLSketch |
N |
Y |
MaxCompoute数据类型参考2.0数据类型版本 - MaxCompute - 阿里云
MaxCompute没有schenma、group、库、存储过程的概念。只有project、表、分区,MaxCompute建表时没有自增序列 外键等,不支持指定编码默认utf-8,内部表不支持指定存储格式默认Aliorc
主要区别 |
|
表结构 |
不能修改分区列列名,只能修改分区列对应的值。 |
支持增加列,但是不支持删除列以及修改列的数据类 型。 |
|
SQL 常见问题 |
INSERT 语法上最直观的区别是:Insert into/overwrite 后面 有个关键字 Table。 |
数据插入表的字段映射不是根据 Select 的别名做的,而 是根据 Select 的字段的顺序和表里的字段的顺序 |
|
UPDATE/DELETE |
只有事务表支持UPDATE/DELETE |
join |
Join 必须要用 on 设置关联条件,不支持笛卡尔积 |
触发器 |
不支持触发器、 |
创建外部函数 |
maxCompute没有外部函数 |
精度 |
DOUBLE 类型存在精度问题。 不建议在关联时候进行直接等号关联两 个 DOUBLE字段,建议把两个数做减 法,如果差距小于一个预设的值就认为 是相同,例如 abs(a1- a2) < 0.000000001。 目前产品上已经支持高精度的类型 DECIMAL。 |
日期 |
MaxCompute主要的日期类型是datetime(格式yyyy-mm-dd hh:mi:ss) timestamp date,datetime支持的内建函数更加丰富,建议日期转成datetime做运算,日期函数链接 |
存储过程 |
使用MaxCompute的pyodps修改 |
物化视图 |
要更新物化化视图中的数据,MaxCompute只能手动更新,不支持自动更新 |
redshift 支持在select语句中引用别名如 select money/100 as a ,round(money/100,3) from table |
MaxCompute修改 select money/100 as a ,round(a,3) from table |
MaxCompute |
REDAHIFT |
|
+、- |
Y |
Y |
^、|/、||/ |
Y |
Y |
*、/、% |
Y |
Y |
@ |
N |
Y |
&、|、 |
Y |
Y |
|| |
Y |
Y |
#、~、<<、>> |
使用shift函数替换 |
Y |
MaxCompute |
REDAHIFT |
|
<> 或 != |
Y |
Y |
like |
Y |
Y |
BETWEEN expression AND |
Y |
Y |
IS [ NOT ] NULL |
Y |
Y |
EXISTS |
Y |
Y |
POSIX 运算符 |
N |
Y |
SIMILAR TO |
N |
Y |
IN |
Y |
Y |
正则 ~ |
Rlike |
Y |
~~ |
like |
Y |
主要差异:
1.MaxCompute不支持主键自增和PRIMARY KEY
2.指定默认值default]不支持使用函数
3.decimal指定默认值不支持-1
语法 |
MaxCompute |
REDSHIFT |
CREATE TABLE—PRIMARY KEY |
N |
Y |
CREATE TABLE—NOT NULL |
Y |
Y |
CREATE TABLE—CLUSTER BY |
Y |
N |
CREATE TABLE—EXTERNAL TABLE |
Y(OSS, OTS, TDDL) |
N |
CREATE TABLE—TEMPORARY TABLE |
N |
Y |
table_attributes |
N(Mc内部表不需要添加属性) |
Y |
CREATE TABLE—AS |
Y |
Y |
create materialized view |
Y |
Y |
语法 |
MaxCompute |
REDSHIFT |
CTE |
Y |
Y |
SELECT—into |
N |
Y |
SELECT—recursive CTE |
N |
Y |
SELECT—GROUP BY ROLL UP |
Y |
N |
SELECT—GROUPING SET |
Y |
Y |
SELECT—IMPLICT JOIN |
Y |
Y |
SEMI JOIN |
Y |
N |
SELEC TRANSFROM |
Y |
N |
SELECT—corelated subquery |
Y |
Y |
LATERAL VIEW |
Y |
Y |
SET OPERATOR—UNION (disintct) |
Y |
Y |
SET OPERATOR—INTERSECT |
Y |
Y |
SET OPERATOR—MINUS/EXCEPT |
Y |
Y |
INSERT INTO ... VALUES |
Y |
Y |
INSERT INTO (ColumnList) |
Y |
Y |
UPDATE … WHERE |
Y(事务表支持) |
Y |
DELETE … WHERE |
Y(事务表支持) |
Y |
ANALYTIC—reusable WINDOWING CLUSUE |
Y |
Y |
ANALYTIC—CURRENT ROW |
Y |
Y |
ANALYTIC—UNBOUNDED |
Y |
Y |
ANALYTIC—RANGE … |
Y |
Y |
WHILE DO |
N |
Y |
VIEW WITH PARAMETERS |
Y |
N |
select * into |
N |
Y |
其他未列出的redshift函数不支持。
函数类型 |
MaxCompute |
POSTGRESQL |
在MaxCompute SQL中是否支持分区剪裁 |
日期函数 |
无 |
ADD_MES |
|
无 |
CONVERT_TIMEZONE |
||
无 |
DATE_CMP_TIMESTAMP |
||
无 |
DATE_CMP_TIMESTAMPTZ |
||
无 |
DATE_PART_YEAR |
||
无 |
DATE_CMP |
||
无 |
INTERVAL_CMP |
||
无 |
+ |
||
无 |
SYSDATE |
||
无 |
TIMEOFDAY |
||
无 |
TIMESTAMP_CMP |
||
无 |
TIMESTAMP_CMP_DATE |
||
无 |
TIMESTAMP_CMP_TIMESTAMPTZ |
||
无 |
TIMESTAMPTZ_CMP |
||
无 |
TIMESTAMPTZ_CMP_DATE |
||
无 |
TIMESTAMPTZ_CMP_TIMESTAMP |
||
无 |
to_timestamp |
||
无 |
TIMEZONE |
||
DATEDIFF |
DATEDIFF |
|
|
DATE_ADD |
DATEADD |
|
|
DATEPART |
date_part |
|
|
DATETRUNC |
date_trunc |
|
|
FROM_UNIXTIME |
无 |
|
|
GETDATE |
CURRENT_DATE |
|
|
ISDATE |
无 |
|
|
LASTDAY |
无 |
|
|
TO_DATE |
TO_DATE |
|
|
TO_CHAR |
to_char |
|
|
UNIX_TIMESTAMP |
extract |
|
|
WEEKDAY |
无 |
|
|
WEEKOFYEAR |
无 |
|
|
YEAR |
extract |
|
|
QUARTER |
EXTRACT |
|
|
MONTH |
EXTRACT |
|
|
DAY |
EXTRACT |
|
|
DAYOFMONTH |
无 |
|
|
HOUR |
EXTRACT |
|
|
MINUTE |
EXTRACT |
|
|
CURRENT_TIMESTAMP |
CURRENT_TIMESTAMP |
|
|
ADD_MONTHS |
运算符+ |
|
|
LAST_DAY |
LAST_DAY |
|
|
NEXT_DAY |
NEXT_DAY |
|
|
MONTHS_BETWEEN |
MONTHS_BETWEEN |
|
|
数学函数 |
无 |
exp |
|
无 |
ATAN2 |
||
无 |
DEXP |
||
无 |
DLOG1 |
||
无 |
DLOG10 |
||
ABS |
ABS |
|
|
ACOS |
ACOS |
|
|
ASIN |
ASIN |
|
|
ATAN |
ATAN |
|
|
CEIL |
CEIL |
|
|
CONV |
convert |
|
|
COS |
COS |
|
|
COSH |
ACOS |
|
|
COT |
COT |
|
|
EXP |
EXP |
|
|
FLOOR |
FLOOR |
|
|
LN |
LN |
|
|
LOG |
LOG |
|
|
POW |
power |
|
|
RAND |
random |
|
|
ROUND |
ROUND |
|
|
SIN |
SIN |
|
|
SINH |
asin |
|
|
SQRT |
SQRT |
|
|
TAN |
TAN |
|
|
TANH |
atan |
|
|
TRUNC |
TRUNC |
|
|
LOG2 |
LOG |
|
|
LOG10 |
LOG |
|
|
BIN |
无 |
|
|
HEX |
无 |
|
|
UNHEX |
无 |
|
|
RADIANS |
RADIANS |
|
|
DEGREES |
DEGREES |
|
|
SIGN |
SIGN |
|
|
E |
无 |
|
|
PI |
PI |
|
|
FACTORIAL |
无 |
|
|
CBRT |
CBRT |
|
|
SHIFTLEFT |
<< |
|
|
SHIFTRIGHT |
>> |
|
|
SHIFTRIGHTUNSIGNED |
>>> |
|
|
窗口函数 |
无 |
CUME_DIST |
|
无 |
FIRST_VALUE/LAST_VALUE |
||
无 |
LISTAGG |
||
无 |
NTH_VALUE |
||
无 |
PERCENTILE_CONT |
||
无 |
PERCENTILE_DISC |
||
无 |
RATIO_TO_REPORT ( ratio_expression ) OVER ( [ PARTITION BY partition_expression ] ) |
||
无 |
STDDEV_SAMP |
||
无 |
VAR_SAMP | VARIANCE | VAR_POP |
||
无 |
PERCENT_RANK |
||
DENSE_RANK |
DENSE_RANK |
|
|
RANK |
RANK |
|
|
LAG |
LAG |
|
|
LEAD |
LEAD |
|
|
PERCENT_RANK |
PERCENT_RANK |
|
|
ROW_NUMBER |
ROW_NUMBER |
|
|
CLUSTER_SAMPLE |
无 |
|
|
NTILE |
NTILE |
|
|
聚合函数 |
PERCENTILE_APPROX |
APPROXIMATE PERCENTILE_DISC |
|
无 |
LISTAGG |
||
无 |
PERCENTILE_CONT |
||
ANY_VALUE |
ANY_VALUE |
||
COUNT |
COUNT |
|
|
AVG |
AVG |
|
|
MAX |
MAX |
|
|
MIN |
MIN |
|
|
MEDIAN |
PERCENTILE_disc |
|
|
STDDEV |
STDDEV |
|
|
STDDEV_SAMP |
STDDEV_SAMP |
|
|
SUM |
SUM |
|
|
WM_CONCAT |
string_agg |
|
|
COLLECT_LIST |
无 |
|
|
COLLECT_SET |
无 |
|
|
VARIANCE/VAR_POP |
VARIANCE/VAR_POP |
|
|
VAR_SAMP |
VAR_SAMP |
|
|
COVAR_POP |
COVAR_POP |
|
|
COVAR_SAMP |
COVAR_SAMP |
|
|
PERCENTILE |
PERCENTILE_disc |
|
|
字符串函数 |
无 |
|| |
|
无 |
BPCHARCMP |
||
无 |
BTRIM |
||
无 |
CHAR_LENGTH |
||
无 |
CHARACTER_LENGTH |
||
无 |
CHARINDEX |
||
无 |
COLLATE |
||
无 |
CRC32 |
||
无 |
DIFFERENCE |
||
无 |
INITCAP |
||
无 |
OCTETINDEX |
||
无 |
OCTET_LENGTH |
||
无 |
QUOTE_IDENT |
||
无 |
QUOTE_LITERAL |
||
无 |
POSITION |
||
无 |
REPEAT |
||
无 |
LEFT /RIGHT |
||
无 |
STRPOS |
||
无 |
STRTOL |
||
CHAR_MATCHCOUNT |
无 |
|
|
CHR |
CHR |
|
|
CONCAT |
CONCAT|array_concat |
|
|
GET_JSON_OBJECT |
无 |
|
|
INSTR |
无 |
|
|
IS_ENCODING |
无 |
|
|
KEYVALUE |
无 |
|
|
LENGTH |
LENGTH |
|
|
LENGTHB |
LEN |
|
|
MD5 |
无 |
|
|
REGEXP_EXTRACT |
无 |
|
|
REGEXP_INSTR |
REGEXP_INSTR |
|
|
REGEXP_REPLACE |
REGEXP_REPLACE |
|
|
REGEXP_SUBSTR |
REGEXP_SUBSTR |
|
|
REGEXP_COUNT |
REGEXP_COUNT |
|
|
SPLIT_PART |
SPLIT_PART |
|
|
SUBSTR |
SUBSTR |
|
|
SUBSTRING |
SUBSTRING |
|
|
TOLOWER |
LOWER |
|
|
TOUPPER |
UPPER |
|
|
TRIM |
TRIM |
|
|
LTRIM |
LTRIM |
|
|
RTRIM |
RTRIM |
|
|
REVERSE |
REVERSE |
|
|
REPEAT |
REPEAT |
|
|
ASCII |
ASCII |
|
|
CONCAT_WS |
CONCAT_WS |
|
|
LPAD |
LPAD |
|
|
RPAD |
RPAD |
|
|
REPLACE |
REPLACE |
|
|
SOUNDEX |
SOUNDEX |
|
|
SUBSTRING_INDEX |
SUBSTRING_INDEX |
|
|
TRANSLATE |
TRANSLATE |
|
|
URL_DECODE |
无 |
|
|
URL_ENCODE |
无 |
|
|
CRC32 |
无 |
|
|
其他函数 |
CAST |
CAST |
|
COALESCE |
COALESCE |
|
|
DECODE |
DECODE |
|
|
GET_IDCARD_AGE |
无 |
|
|
GET_IDCARD_BIRTHDAY |
无 |
|
|
GET_IDCARD_SEX |
无 |
|
|
GREATEST |
GREATEST |
|
|
ORDINAL |
无 |
|
|
LEAST |
LEAST |
|
|
MAX_PT |
无 |
|
|
UUID |
uuid_generate_v1 |
|
|
SAMPLE |
无 |
|
|
IF |
IF |
|
|
CASE WHEN |
CASE WHEN |
|
|
SPLIT |
SPLIT |
|
|
STR_TO_MAP |
无 |
|
|
EXPLODE |
split_to_array |
|
|
MAP |
无 |
|
|
MAP_KEYS |
无 |
|
|
MAP_VALUES |
无 |
|
|
NVL |
NVL |
|
|
ARRAY |
ARRAY |
|
|
SIZE |
get_array_length |
|
|
ARRAY_CONTAINS |
@> |
|
|
POSEXPLODE |
无 |
|
|
TRANS_ARRAY |
无 |
|
|
INLINE |
无 |
|
|
NAMED_STRUCT |
无 |
|
|
无 |
SUBARRAY |
功能 |
MaxCompute 产品组件 |
特性介绍 |
数据存储 |
MaxCompute 表 (基于盘古 分布式存储) |
MaxCompute 支持大规模计算存储,适用于 TB 以上规模的存 储及计算需求,最大可达 EB 级别。同一个 MaxCompute 项 目支持企业从 创业团队发展到独角兽的数据规模需求; 数据 分布式存储,多副本冗余,数据存储对外仅开放 表的 操作接口,不提供文件系统访问接口 MaxCompute 支持大规模计算存储,适用于 TB 以上规模的存 储及计算需求,最大可达 EB 级别。同一个 MaxCompute 项目支持企业从 创业团队发展到独角兽的数据规模需求; 数据分布式存储,多副本冗余,数据存储对外仅 开放表的操作接口,不提供文件系统访问接口; 自研数据存储结构,表数据列式存储,默认高度 压缩,后续将提供兼容 ORC的Ali-ORC存储格 式; 支持外表,将存储在OSS 对象存储、OTS表格 存储的数据映射为二维表; 支持Partition、Bucket 的分区、分桶存储; 更底层不是 HDFS,是阿里自研的盘古文件系 统,但可借助 HDFS 理解对应的表之下文件的 体系结构、任务并发机制使用时,存储与计算解 耦,不需要仅仅为了存储扩大不必要的计算资 源; |
存储 |
Pangu |
阿里自研分布式存储服务,类似 HDFS。 MaxCompute 对外目前只暴露表接口,不能直 接访问文件系统。 |
资源调度 |
Fuxi |
阿里自研的资源调度系统,类似 Yarn |
数据上传下载 |
Tunnel Streaming Tunnel |
不暴露文件系统,通过 Tunnel 进行批量数据上传下载 |
开发&诊断 |
Dataworks/Studio/Logview |
配套的数据同步、作业开发、工作流编排调度、 作业运维及诊断工具。开源社区常见的 Sqoop、Kettle、Ozzie 等实现数据同步和调度 |
用户接口 |
CLT/SDK |
统一的命令行工具和 JAVA/PYTHON SDK |
SQL |
MaxCompute SQL |
TPC-DS 100%支持,同时语法高度兼容 Hive, 有Hive 背景,开发者直接上手,特别在大数据 规模下性能强大。 * 完全自主开发的 compiler,语言功能开发更 灵活,迭代快,语法语义检查更加灵活高效 * 基于代价的优化器,更智能,更强大,更适合 复杂的查询 * 基于LLVM 的代码生成,让执行过程更高效 * 支持复杂数据类型(array,map,struct) * 支持Java、Python语言的UDF/UDAF/UDTF * 语法:Values、CTE、SEMIJOIN、FROM倒 装、Subquery Operations 、 Set Operations(UNION /INTERSECT /MINUS)、 SELECT TRANSFORM 、User Defined Type、 GROUPING SET(CUBE/rollup/GROUPING SET)、脚本运行模式、参数化视图 * 支持外表(外部数据源+StorageHandler,支 持非结构化数据) |
Spark |
MaxCompute Spark |
MaxCompute提供了Spark on MaxCompute 的解决方案,使 MaxCompute 提供兼容开源的 Spark 计算服务,让它在统一的计算资源和数据 集权限体系之上,提供 Spark 计算框架,支持用 户以熟悉的开发使用方式提交运行 Spark 作 业。 * 支持原生多版本 Spark 作业: Spark1.x/Spark2.x作业都可运行; * 开源系统的使用体验:Spark-submit 提交方 式,提供原生的 Spark WebUI供用户查看; * 通过访问OSS、OTS、database 等外部数据 源,实现更复杂的 ETL 处理,支持对 OSS 非结 构化进行处理; * 使用 Spark 面向 MaxCompute 内外部数据 开展机器学习, 扩展应用场景 |
机器学习 |
PAI |
MaxCompute 内建支持的上百种机器学习算 法,目前 MaxCompute 的机器学习能力由 PAI 产品进行统一提供服务,同时 PAI提供了深度学 习框架、Notebook 开发环境、GPU计算资源、 模型在线部署的弹性预测服务。MaxCompute 的数据对PAI产品无缝集成。 |
数据接入 |
目前支撑通过 DTS或者 DataWorks数据集成功能 |
数据集成是稳定高效、弹性伸缩的数据同步平台,丰富的异构数据源之间高速稳定的数据移动及同步能力。支持实时任务和批任务写入MaxCompute |
整体 |
不是孤立的功能,完整的企业 服务 |
不需要多组件集成、调优、定制,开箱即用 |
从数据库表导入到 Amazon S3
卸载数据 - Amazon Redshift
在线迁移上云服务
AWS S3 迁移教程 - 在线迁移服务 - 阿里云
将数据从OSS迁移至同区域的MaxCompute项目load命令
LOAD - MaxCompute - 阿里云
语法校验工具二选一
MaxCompute studio
认识MaxCompute Studio - MaxCompute - 阿里云
DataWorks sql节点
创建ODPS SQL节点 - DataWorks - 阿里云
数据库迁移主要包含以下内容
迁移实施计划:
序号 |
项目 |
预估时间 |
1 |
调研评估 |
1~2周 |
2 |
方案设计 |
1~2周 |
3 |
资源规划 |
1周 |
4 |
改造与测试验证 |
5~7周,需要根据复杂度评估 |
5 |
生成割接 |
1~2周 |
用户根据自身现有 RedShift数据量、QPS、TPS 等性能指标、高可用需求和未来业务增长需求,制定合理化的迁移方案。
用户需要准备好 MaxCompute 的相关环境,同时获取到对应需要使用的迁移工具。迁移工具的相关内容请参考《 RedShift到MaxCompute迁移工具介绍 》 章节。
迁移工具可以利用MaxCompute studio(或者DataWorks新建sql节点)客户端语法校验,新建一个sql文件,如图不支持的语法会报红
MaxCompute Studio安装文档认识MaxCompute Studio - MaxCompute - 阿里云
5.4.1.1. 建表
在RedShift中获取表列表和表字段定义,按照Maxcompute支持的字段值进行转换,对于有update和delete语句的表必须建成Transactional表
类型转化参考《数据类型对比及类型转化》章节
建表语法
--创建新表。
create [external] table [if not exists]
[( [not null] [default ] [comment ], ...)]
[comment ]
[partitioned by ( [comment ], ...)]
--用于创建聚簇表时设置表的Shuffle和Sort属性。
[clustered by | range clustered by ( [, , ...]) [sorted by ( [asc | desc] [, [asc | desc] ...])] into buckets]
--仅限外部表。
[stored by StorageHandler]
--仅限外部表。
[with serdeproperties (options)]
--仅限外部表。
[location ]
--指定表为Transactional表,后续可以对该表执行更新或删除表数据操作,但是Transactional表有部分使用限制,请根据需求创建。
[tblproperties("transactional"="true")]
[lifecycle ];
--基于已存在的表创建新表并复制数据,但不复制分区属性。
create table [if not exists] [lifecycle ] as ;
--基于已存在的表创建具备相同结构的新表但不复制数据。
create table [if not exists] like [lifecycle ];
说明:
⚫ 表名与列名均对大小写不敏感。
⚫ 在创建表时,如果不指定 if not exists选项而存在同名表,则返回报错;若指定此选项,则无论是否存在同名表,即使原表结构与要创建的目标表结构不一致, 均返回成功。已存在的同名表的元信息不会被改动。
⚫ 表名、列名中不能有特殊字符,只能用英文的 a-z、A-Z 及数字和下划线(_),
且以字母开头,名称的长度不超过 128 字节。
⚫tblproperties("transactional"="true"):可选(有update和delete语句必须设置)。设置表为Transactional表。后续可以对Transactional表执行update、delete操作实现行级更新或删除数据。更多信息,请参见更新或删除数据(UPDATE | DELETE)。
⚫ Partitioned by 指定表的分区字段,目前仅支持 string类型。分区值不可以有双字节字符(如中文),必须是以英文字母 a-z、A-Z开始后可跟字母数字,名称的长度不超过 128 字节。允许的字符包括:空格、冒号(:)、下划线(_)、美元符$)、井号(#)、点(.)、感叹号(!)和@,出现其他字符行为未定义, 例如:“\t”、“\n”、“/”等。当利用分区字段对表进行分区时,新增分区、更新分区内数据和读取分区数据均不需要做全表扫描,可以提高处理效率。
⚫ 注释内容是长度不超过 1024 字节的有效字符串。
⚫ lifecycle 指明此表的生命周期,单位:天。create table like 语句不会复制源表
的生命周期属性。
⚫ 理论上源表分区最多只能 6 级,但考虑极限存储的分区膨胀方式,请尽可能少用
分区。
⚫ 一个表允许的分区个数支持按照具体的 project 配置,默认 60000 个。
⚫ 在create table ... as select ...语句中,如果在 select 子句中使用常量作为列的
值,建议指定列的名字。
⚫ 如果希望源表和目标表具有相同的表结构,可以尝试使用 create table ... like 操
作。
5.4.1.1.1建表具体案例
5.4.1.2. SQL 迁移
SQL 迁移实际上就是根据 Oracle 和MaxCompute 两者间 SQL 的差异进行转化,将RedShift中的 SQL 转化成 MaxCompute 中的 SQL,从而使 SQL 可用。具体的 SQL间差异请参考《迁移前RedShift于MaxCompute的各项对比差异》 章节中的相关内容
5.4.1.2.1 SQL 迁移 具体案例
DML语句
1.执行updae或者delet的语句需要创建事务表("transactional"="true")
2. 形如COMMENT ON column atzc_dev_dw.t_com_fact_auto_pay_gw_trans_pay_gw."n_trans_amt" is 'dml';给列添加 注释,需要改为MC⽀持的语法alter table change column comment '';
DQL语句
问题现象 |
迁移指导 |
|
cte(with)语句 |
with语句写在insert into下面语法解析报错 |
with语句移动到insert into上面 |
MC不支持嵌套的with 需要将with拿出来 |
with a as () , b as () |
|
类型转化 |
redshift都使用的是 :: 如:a::date
|
使用cast(a as date) |
正常匹配 |
redshift使用的是 ~ |
使用rlike替换 |
group by |
redshift group by中的整型常量会被当做select的列序号处理 如:group by 1,2. |
SQL语句设置了属性,即set odps.sql.groupby.position.alias=true;一起提交 |
类型转化 :: |
redshift ::代表类型转化 |
使用cast函数转化 |
数据类型 |
varchar |
需要指定位数varchar(100)或者直接指定string |
decimal 类型常量1 |
改成1bd |
|
smallint 常量 |
1s |
|
join |
join的不等值 |
mc不支持普通join不等值表达式,可以使用mapjoin |
内建函数
RedShift |
MaxCompute |
RS举例 |
MC举例 |
多行注释/* xxxxx */ |
框选所需注释内容,ctrl+/,进行注释 |
||
DATEADD( datepart, interval, {date|time|timetz|timestamp} ) |
datetime dateadd(date|datetime|timestamp |
dateadd(day,1,f.dt_date) |
dateadd(f.dt_date,1,'dd') |
DATEDIFF ( datepart, {date|time|timetz|timestamp}, {date|time|time|timestamp} ) |
bigint datediff(date|datetime|timestamp |
datediff(min,a,b) |
datediff(b,a,'mi') |
current_date-n/current_date+n |
dateadd(GETDATE(),n) dateadd可以加减时间,getdate可以获取当前时间 |
current_date-1 |
dateadd(GETDATE(),1,'dd') |
类型转化 :: |
cast转 |
a::date |
cast(a as date) |
正则 ~ |
rlike |
||
日期加减current_date+30 |
date_add(current_date(),30) |
||
CEILING 或 CEIL 函数用于将数字向上舍入到下一个整数。 |
ceil |
select ceiling(commission) |
select ceil(1.1); |
TO_TIMETAMP 将时间戳字符串转换为时间标记 |
bigint unix_timestamp(datetime |
to_timestamp('1900/00/00 00:00:00'as string, 'YYYY-MM-DD HH24:MI:SS.MS'as string) |
unix_timestamp(cast ("1900-00-00 00:00:00" as datetime)) |
dateadd按指定的时间间隔递增日期、时间、时间或时间戳值 |
datetime dateadd(date|datetime|timestamp |
dateadd(month,-6,a.dt_end_date) |
dateadd(a.dt_end_date,-6,"mm") |
LISTAGG 聚合函数根据 ORDER BY 表达式对该组的行进行排序,然后将值串联成一个字符串 |
wm_concat(string |
listagg(remark) |
wm_Concat(",",remark) |
CURRENT_DATE获取当前日期 |
CURRENT_DATE() MaxCompute需要添加括号 |
||
EXTRACT(week from $1)提取函数从 TIMESTAMP 值或表达式 |
weekofyear() |
||
EXTRACT(weekday from $1) 和 extract(DOW from $1) |
weekday($1) |
||
DATEPART(WEEKDAY,T3.dt_report) |
WEEKDAY(cast(T3.dt_report as DATETIME)) |
||
LEN 函数返回一个整数,表示输入字符串中的字符的数量 |
bigint length(string |
len |
length |
LOWER 函数返回与输入字符串具有相同数据类型的字符串 |
tolower(string |
lower |
|
CONVERT ( TIMESTAMP, id_card_back_overdue) 函数将值从一种数据类型转换为另一种数据类型 |
转为cast() |
CONVERT ( TIMESTAMP, id_card_back_overdue) |
cast(id_card_back_overdue as TIMESTAMP) |
sysdate返回当前会话时区(默认为 UTC)中的当前日期和时间 |
getdate() 返回DATETIME ‘2017-11-11 00:00:00’ |
||
charindex() 返回指定子字符串在字符串中的位置 |
INSTR() |
charindex('fish', 'dogfish') |
instr('dogfish','fish') |
left()这些函数返回指定数量的位于字符串最左侧 |
substr() |
||
right()这些函数返回指定数量的位于字符串最右侧 |
reverse(substr(reverse())) |
||
DATE_TRUNC 函数根据您指定的日期部分(如小时、周或月)截断时间戳表达式或文字 date_trunc('month') |
datetrunc(,'month') |
||
json_extract_path_text 函数返回键:Value对引用 JSON 字符串中的一系列路径元素 |
改为get_json_object写法get_json_object(content,'$.DeviceID') |
根据key路径获取json字符串的value |
json_extract_path_text('{"f2":{"f3":1},"f4":{"f5":99,"f6":"star"}}','f4', 'f6') |
json_extract_array_element_text |
使用atzc_dev_dw.json_extract_array_element_text |
根据索引返回数组元素 |
json_extract_array_element_text('[111,112,113]', 2) |
POSITION返回指定子字符串在字符串中的位置 |
改成:instr |
||
BTRIM 函数通过删除前导空格和尾随空格或删除 |
TRIM maxCompute只能删除左右空格不能删除指定位置空格,删除指定位置需要自己写udf实现 |
||
date_part()从表达式中提取日期部分值 |
datepart() |
||
mod() 函数返回一个数字结果 |
$1%$2 |
||
~~ |
like |
||
date_part(w,time) |
weekofyear() |
4.4.1.2存储过程迁移
建议改成临时表或者pyodps的方式
序号 |
描述 |
① |
将Amazon Redshift数据导出至Amazon S3数据湖(简称S3)。 |
② |
通过对象存储服务OSS的在线迁移上云服务,将数据从S3迁移至OSS。 |
③ |
将数据从OSS迁移至同区域的MaxCompute项目中,并校验数据完整性和正确性。 |
数据迁移参考文档:
Amazon Redshift数据迁移至MaxCompute - MaxCompute - 阿里云
5.4.3. 测试验证
目前RedShift到MaxCompute 迁移的数据测试验证工作,还没有工具可以支持,需要
自行编写脚本工具完成,常用校验方案有如下几种:
⚫ 表结构校验,从 RedShift和MaxCompute 分别导出数据表列及类型定义后计算
md5 进行校验
⚫ 数据表行数比对,执行 SQL 语句分别在 RedShift和MaxCompute 统计相同表的
数据行数进行逐行比对
⚫ 数据全量校验,一般用于核心表且数据量较小的校验场景,导出全量数据计算
md5 进行校验,或全量数据分段计算 md5 进行校验
⚫ 数据抽样校验,一般用于核心大表的数据校验场景,按一定抽样规则从源和目标
抽取数据进行校验。
原文链接
本文为阿里云原创内容,未经允许不得转载。