为了解决数据存储和计算引擎之间的适配的问题,Netflix开发了Iceberg,2018年11月16日进入Apache孵化器,2020 年5月19日从孵化器毕业,成为Apache的顶级项目。
Iceberg是一个面向海量数据分析场景的开放表格式(Table Format)。表格式(Table Format)可以理解为元数据以及数据文件的一种组织方式,处于计算框架(Flink,Spark…)之下,数据文件之上。
Iceberg提供一个开放通用的表格式(Table Format)实现方案,不和特定的数据存储、计算引擎绑定。目前大数据领域的常见数据存储(HDFS、S3…),计算引擎(Flink、Spark…)都可以接入Iceberg。
在生产环境中,可选择不同的组件搭使用。甚至可以不通过计算引擎,直接读取存在文件系统上的数据。
Iceberg上游组件将数据写入完成后,下游组件及时可读,可查询。可以满足实时场景.并且Iceberg同时提供了流/批读接口、流/批写接口。可以在同一个流程里, 同时处理流数据和批数据,大大简化了ETL链路。
Iceberg可以通过SQL的方式进行表级别模式演进。进行这些操作的时候,代价极低。 不存在读出数据重新写入或者迁移数据这种费时费力的操作。比如在常用的Hive中,如果我们需要把一个按天分区的表,改成按小时分区。此时,不能再原表之上直接修改,只能新建一个按小时分区的表,然后再把数据Insert到新的小时分区表。而且,即使我们通过Rename的命令把新表的名字改为原表,使用原表的上次层应用, 也可能由于分区字段修改,导致需要修改 SQL,这样花费的经历是非常繁琐的。
图中booking_table表2008年按月分区,进入2009年后改为按天分区,这两中分区策略共存于该表中。
借助Iceberg的隐藏分区(Hidden Partition),在写SQL 查询的时候,不需要在SQL中特别指定分区过滤条件,Iceberg会自动分区,过滤掉不需要的数据。
Iceberg分区演化操作同样是一个元数据操作, 不会重写数据文件。
Iceberg可以在一个已经存在的表上修改排序策略。修改了排序策略之后, 旧数据依旧采用老排序策略不变。往Iceberg里写数据的计算引擎总是会选择最新的排序策略, 但是当排序的代价极其高昂的时候, 就不进行排序了。
Iceberg的分区信息并不需要人工维护, 它可以被隐藏起来. 不同其他类似Hive 的分区策略, Iceberg的分区字段/策略(通过某一个字段计算出来),可以不是表的字段和表数据存储目录也没有关系。在建表或者修改分区策略之后,新的数据会自动计算所属于的分区。在查询的时候同样不用关系表的分区是什么字段/策略,只需要关注业务逻辑,Iceberg会自动过滤不需要的分区数据。
正是由于Iceberg的分区信息和表数据存储目录是独立的,使得Iceberg的表分区可以被修改,而且不和涉及到数据迁移。
其实就是快照查询
Iceberg提供了查询表历史某一时间点数据镜像(snapshot)的能力。通过该特性可以将最新的SQL逻辑,应用到历史数据上。
Iceberg通过提供事务(ACID)的机制,使其具备了upsert的能力并且使得边写边读成为可能,从而数据可以更快的被下游组件消费。通过事务保证了下游组件只能消费已commit的数据,而不会读到部分甚至未提交的数据。
Iceberg基于乐观锁提供了多个程序并发写入的能力并且保证数据线性一致。
Iceberg的元数据里面提供了每个数据文件的一些统计信息,比如最大值,最小值,Count计数等等。因此,查询SQL的过滤条件除了常规的分区,列过滤,甚至可以下推到文件级别,大大加快了查询效率。
数据文件是Apache Iceberg表真实存储数据的文件,一般是在表的数据存储目录的data目录下,如果我们的文件格式选择的是parquet,那么文件是以“.parquet”结尾。
例如:00000-0-atguigu_20230203160458_22ee74c9-643f-4b27-8fc1-9cbd5f64dad4-job_1675409881387_0007-00001.parquet 就是一个数据文件。
Iceberg每次更新会产生多个数据文件(data files)。
快照代表一张表在某个时刻的状态。每个快照里面会列出表在某个时刻的所有 data files 列表。data files是存储在不同的manifest files里面,manifest files是存储在一个Manifest list文件里面,而一个Manifest list文件代表一个快照。
manifest list是一个元数据文件,它列出构建表快照(Snapshot)的清单(Manifest file)。这个元数据文件中存储的是Manifest file列表,每个Manifest file占据一行。每行中存储了Manifest file的路径、其存储的数据文件(data files)的分区范围,增加了几个数文件、删除了几个数据文件等信息,这些信息可以用来在查询时提供过滤,加快速度。
例如:snap-6746266566064388720-1-52f2f477-2585-4e69-be42-bbad9a46ed17.avro就是一个Manifest List文件。
Manifest file也是一个元数据文件,它列出组成快照(snapshot)的数据文件(data files)的列表信息。每行都是每个数据文件的详细描述,包括数据文件的状态、文件路径、分区信息、列级别的统计信息(比如每列的最大最小值、空值数等)、文件的大小以及文件里面数据行数等信息。其中列级别的统计信息可以在扫描表数据时过滤掉不必要的文件。
Manifest file是以avro格式进行存储的,以“.avro”后缀结尾,例如:52f2f477-2585-4e69-be42-bbad9a46ed17-m0.avro。
1)Hive与Iceberg的版本对应关系如下
Iceberg与Hive 2和Hive 3.1.2/3的集成,支持以下特性:
创建表
删除表
读取表
插入表(INSERT into)
更多功能需要Hive 4.x(目前alpha版本)才能支持。
2)上传jar包,拷贝到Hive的auxlib目录中
mkdir auxlib
cp iceberg-hive-runtime-1.1.0.jar /opt/module/hive/auxlib
cp libfb303-0.9.3.jar /opt/module/hive/auxlib
3)修改hive-site.xml,添加配置项
iceberg.engine.hive.enabled
true
设置 iceberg.catalog=location_based_table,直接通过指定的根路径来加载Iceberg表
CREATE TABLE iceberg_test1 (i int)
STORED BY ‘org.apache.iceberg.mr.hive.HiveIcebergStorageHandler’;
INSERT INTO iceberg_test1 values(1);
查看HDFS可以发现,表目录在默认的hive仓库路径下。
1)使用 HiveCatalog
set iceberg.catalog.iceberg_hive.type=hive;
set iceberg.catalog.iceberg_hive.uri=thrift://hadoop1:9083;
set iceberg.catalog.iceberg_hive.clients=10;
set iceberg.catalog.iceberg_hive.warehouse=hdfs://hadoop1:8020/warehouse/iceberg-hive;
CREATE TABLE iceberg_test2 (i int)
STORED BY ‘org.apache.iceberg.mr.hive.HiveIcebergStorageHandler’
TBLPROPERTIES(‘iceberg.catalog’=‘iceberg_hive’);
INSERT INTO iceberg_test2 values(1);
2)使用 HadoopCatalog
set iceberg.catalog.iceberg_hadoop.type=hadoop;
set iceberg.catalog.iceberg_hadoop.warehouse=hdfs://hadoop1:8020/warehouse/iceberg-hadoop;
CREATE TABLE iceberg_test3 (i int)
STORED BY ‘org.apache.iceberg.mr.hive.HiveIcebergStorageHandler’
LOCATION ‘hdfs://hadoop1:8020/warehouse/iceberg-hadoop/default/iceberg_test3’
TBLPROPERTIES(‘iceberg.catalog’=‘iceberg_hadoop’);
INSERT INTO iceberg_test3 values(1);
如果HDFS中已经存在iceberg格式表,我们可以通过在Hive中创建Icerberg格式表指定对应的location路径映射数据。
CREATE EXTERNAL TABLE iceberg_test4 (i int)
STORED BY ‘org.apache.iceberg.mr.hive.HiveIcebergStorageHandler’
LOCATION ‘hdfs://hadoop1:8020/warehouse/iceberg-hadoop/default/iceberg_test3’
TBLPROPERTIES (‘iceberg.catalog’=‘location_based_table’);
1)创建外部表
CREATE EXTERNAL TABLE iceberg_create1 (i int)
STORED BY ‘org.apache.iceberg.mr.hive.HiveIcebergStorageHandler’;
describe formatted iceberg_create1;
2)创建内部表
CREATE TABLE iceberg_create2 (i int)
STORED BY ‘org.apache.iceberg.mr.hive.HiveIcebergStorageHandler’;
describe formatted iceberg_create2;
3)创建分区表
CREATE EXTERNAL TABLE iceberg_create3 (id int,name string)
PARTITIONED BY (age int)
STORED BY ‘org.apache.iceberg.mr.hive.HiveIcebergStorageHandler’;
describe formatted iceberg_create3;
Hive语法创建分区表,不会在HMS中创建分区,而是将分区数据转换为Iceberg标识分区。这种情况下不能使用Iceberg的分区转换,例如:days(timestamp),如果想要使用Iceberg格式表的分区转换标识分区,需要使用Spark或者Flink引擎创建表。
只支持HiveCatalog表修改表属性,Iceberg表属性和Hive表属性存储在HMS中是同步的。
ALTER TABLE iceberg_create1 SET TBLPROPERTIES(‘external.table.purge’=‘FALSE’);
支持标准单表INSERT INTO操作
INSERT INTO iceberg_create2 VALUES (1);
INSERT INTO iceberg_create1 select * from iceberg_create2;
在HIVE 3.x中,INSERT OVERWRITE虽然能执行,但其实是追加。
DROP TABLE iceberg_create1;
第4章 与 Spark SQL集成
4.1 环境准备
4.1.1 安装 Spark
1)Spark与Iceberg的版本对应关系如下
Spark 版本 Iceberg 版本
2.4 0.7.0-incubating – 1.1.0
3.0 0.9.0 – 1.0.0
3.1 0.12.0 – 1.1.0
3.2 0.13.0 – 1.1.0
3.3 0.14.0 – 1.1.0
2)上传并解压Spark安装包
tar -zxvf spark-3.3.1-bin-hadoop3.tgz -C /opt/module/
mv /opt/module/spark-3.3.1-bin-hadoop3 /opt/module/spark-3.3.1
3)配置环境变量
sudo vim /etc/profile.d/my_env.sh
export SPARK_HOME=/opt/module/spark-3.3.1
export PATH= P A T H : PATH: PATH:SPARK_HOME/bin
source /etc/profile.d/my_env.sh
4)拷贝iceberg的jar包到Spark的jars目录
cp /opt/software/iceberg/iceberg-spark-runtime-3.3_2.12-1.1.0.jar /opt/module/spark-3.3.1/jars
4.1.2 启动 Hadoop
(略)
4.2 Spark 配置 Catalog
Spark中支持两种Catalog的设置:hive和hadoop,Hive Catalog就是Iceberg表存储使用Hive默认的数据路径,Hadoop Catalog需要指定Iceberg格式表存储路径。
vim spark-defaults.conf
4.2.1 Hive Catalog
spark.sql.catalog.hive_prod = org.apache.iceberg.spark.SparkCatalog
spark.sql.catalog.hive_prod.type = hive
spark.sql.catalog.hive_prod.uri = thrift://hadoop1:9083
use hive_prod.db;
4.2.2 Hadoop Catalog
spark.sql.catalog.hadoop_prod = org.apache.iceberg.spark.SparkCatalog
spark.sql.catalog.hadoop_prod.type = hadoop
spark.sql.catalog.hadoop_prod.warehouse = hdfs://hadoop1:8020/warehouse/spark-iceberg
use hadoop_prod.db;
4.3 SQL 操作
4.3.1 创建表
use hadoop_prod;
create database default;
use default;
CREATE TABLE hadoop_prod.default.sample1 (
id bigint COMMENT ‘unique id’,
data string)
USING iceberg
PARTITIONED BY (partition-expressions) :配置分区
LOCATION ‘(fully-qualified-uri)’ :指定表路径
COMMENT ‘table documentation’ :配置表备注
TBLPROPERTIES (‘key’=‘value’, …) :配置表属性
表属性:https://iceberg.apache.org/docs/latest/configuration/
对Iceberg表的每次更改都会生成一个新的元数据文件(json文件)以提供原子性。默认情况下,旧元数据文件作为历史文件保存不会删除。
如果要自动清除元数据文件,在表属性中设置write.metadata.delete-after-commit.enabled=true。这将保留一些元数据文件(直到write.metadata.previous-versions-max),并在每个新创建的元数据文件之后删除旧的元数据文件。
1)创建分区表
(1)分区表
CREATE TABLE hadoop_prod.default.sample2 (
id bigint,
data string,
category string)
USING iceberg
PARTITIONED BY (category)
(2)创建隐藏分区表
CREATE TABLE hadoop_prod.default.sample3 (
id bigint,
data string,
category string,
ts timestamp)
USING iceberg
PARTITIONED BY (bucket(16, id), days(ts), category)
支持的转换有:
years(ts):按年划分
months(ts):按月划分
days(ts)或date(ts):等效于dateint分区
hours(ts)或date_hour(ts):等效于dateint和hour分区
bucket(N, col):按哈希值划分mod N个桶
truncate(L, col):按截断为L的值划分
字符串被截断为给定的长度
整型和长型截断为bin: truncate(10, i)生成分区0,10,20,30,…
2)使用 CTAS 语法建表
CREATE TABLE hadoop_prod.default.sample4
USING iceberg
AS SELECT * from hadoop_prod.default.sample3
不指定分区就是无分区,需要重新指定分区、表属性:
CREATE TABLE hadoop_prod.default.sample5
USING iceberg
PARTITIONED BY (bucket(8, id), hours(ts), category)
TBLPROPERTIES (‘key’=‘value’)
AS SELECT * from hadoop_prod.default.sample3
3)使用 Replace table 建表
REPLACE TABLE hadoop_prod.default.sample5
USING iceberg
AS SELECT * from hadoop_prod.default.sample3
REPLACE TABLE hadoop_prod.default.sample5
USING iceberg
PARTITIONED BY (part)
TBLPROPERTIES (‘key’=‘value’)
AS SELECT * from hadoop_prod.default.sample3
CREATE OR REPLACE TABLE hadoop_prod.default.sample6
USING iceberg
AS SELECT * from hadoop_prod.default.sample3
4.3.2 删除表
对于HadoopCatalog而言,运行DROP TABLE将从catalog中删除表并删除表内容。
CREATE EXTERNAL TABLE hadoop_prod.default.sample7 (
id bigint COMMENT ‘unique id’,
data string)
USING iceberg
INSERT INTO hadoop_prod.default.sample7 values(1,‘a’)
DROP TABLE hadoop_prod.default.sample7
对于HiveCatalog而言:
在0.14之前,运行DROP TABLE将从catalog中删除表并删除表内容。
从0.14开始,DROP TABLE只会从catalog中删除表,不会删除数据。为了删除表内容,应该使用DROP table PURGE。
CREATE TABLE hive_prod.default.sample7 (
id bigint COMMENT ‘unique id’,
data string)
USING iceberg
INSERT INTO hive_prod.default.sample7 values(1,‘a’)
1)删除表
DROP TABLE hive_prod.default.sample7
2)删除表和数据
DROP TABLE hive_prod.default.sample7 PURGE
4.3.3 修改表
Iceberg在Spark 3中完全支持ALTER TABLE,包括:
重命名表
设置或删除表属性
添加、删除和重命名列
添加、删除和重命名嵌套字段
重新排序顶级列和嵌套结构字段
扩大int、float和decimal字段的类型
将必选列变为可选列
此外,还可以使用SQL扩展来添加对分区演变的支持和设置表的写顺序。
CREATE TABLE hive_prod.default.sample1 (
id bigint COMMENT ‘unique id’,
data string)
USING iceberg
1)修改表名(不支持修改HadoopCatalog的表名)
ALTER TABLE hive_prod.default.sample1 RENAME TO hive_prod.default.sample2
2)修改表属性
(1)修改表属性
ALTER TABLE hive_prod.default.sample1 SET TBLPROPERTIES (
‘read.split.target-size’=‘268435456’
)
ALTER TABLE hive_prod.default.sample1 SET TBLPROPERTIES (
‘comment’ = ‘A table comment.’
)
(2)删除表属性
ALTER TABLE hive_prod.default.sample1 UNSET TBLPROPERTIES (‘read.split.target-size’)
3)添加列
ALTER TABLE hadoop_prod.default.sample1
ADD COLUMNS (
category string comment ‘new_column’
)
– 添加struct类型的列
ALTER TABLE hadoop_prod.default.sample1
ADD COLUMN point struct
– 往struct类型的列中添加字段
ALTER TABLE hadoop_prod.default.sample1
ADD COLUMN point.z double
– 创建struct的嵌套数组列
ALTER TABLE hadoop_prod.default.sample1
ADD COLUMN points array
– 在数组中的结构中添加一个字段。使用关键字’element’访问数组的元素列。
ALTER TABLE hadoop_prod.default.sample1
ADD COLUMN points.element.z double
– 创建一个包含Map类型的列,key和value都为struct类型
ALTER TABLE hadoop_prod.default.sample1
ADD COLUMN pointsm map
– 在Map类型的value的struct中添加一个字段。
ALTER TABLE hadoop_prod.default.sample1
ADD COLUMN pointsm.value.b int
在Spark 2.4.4及以后版本中,可以通过添加FIRST或AFTER子句在任何位置添加列:
ALTER TABLE hadoop_prod.default.sample1
ADD COLUMN new_column1 bigint AFTER id
ALTER TABLE hadoop_prod.default.sample1
ADD COLUMN new_column2 bigint FIRST
4)修改列
(1)修改列名
ALTER TABLE hadoop_prod.default.sample1 RENAME COLUMN data TO data1
(2)Alter Column修改类型(只允许安全的转换)
ALTER TABLE hadoop_prod.default.sample1
ADD COLUMNS (
idd int
)
ALTER TABLE hadoop_prod.default.sample1 ALTER COLUMN idd TYPE bigint
(3)Alter Column 修改列的注释
ALTER TABLE hadoop_prod.default.sample1 ALTER COLUMN id TYPE double COMMENT ‘a’
ALTER TABLE hadoop_prod.default.sample1 ALTER COLUMN id COMMENT ‘b’
(4)Alter Column修改列的顺序
ALTER TABLE hadoop_prod.default.sample1 ALTER COLUMN id FIRST
ALTER TABLE hadoop_prod.default.sample1 ALTER COLUMN new_column2 AFTER new_column1
(5)Alter Column修改列是否允许为null
ALTER TABLE hadoop_prod.default.sample1 ALTER COLUMN id DROP NOT NULL
ALTER COLUMN不用于更新struct类型。使用ADD COLUMN和DROP COLUMN添加或删除struct类型的字段。
5)删除列
ALTER TABLE hadoop_prod.default.sample1 DROP COLUMN idd
ALTER TABLE hadoop_prod.default.sample1 DROP COLUMN point.z
6)添加分区(Spark3,需要配置扩展)
vim spark-default.conf
spark.sql.extensions = org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions
重新进入spark-sql shell:
ALTER TABLE hadoop_prod.default.sample1 ADD PARTITION FIELD category
ALTER TABLE hadoop_prod.default.sample1 ADD PARTITION FIELD bucket(16, id)
ALTER TABLE hadoop_prod.default.sample1 ADD PARTITION FIELD truncate(data, 4)
ALTER TABLE hadoop_prod.default.sample1 ADD PARTITION FIELD years(ts)
ALTER TABLE hadoop_prod.default.sample1 ADD PARTITION FIELD bucket(16, id) AS shard
7)删除分区(Spark3,需要配置扩展)
ALTER TABLE hadoop_prod.default.sample1 DROP PARTITION FIELD category
ALTER TABLE hadoop_prod.default.sample1 DROP PARTITION FIELD bucket(16, id)
ALTER TABLE hadoop_prod.default.sample1 DROP PARTITION FIELD truncate(data, 4)
ALTER TABLE hadoop_prod.default.sample1 DROP PARTITION FIELD years(ts)
ALTER TABLE hadoop_prod.default.sample1 DROP PARTITION FIELD shard
注意,尽管删除了分区,但列仍然存在于表结构中。
删除分区字段是元数据操作,不会改变任何现有的表数据。新数据将被写入新的分区,但现有数据将保留在旧的分区布局中。
当分区发生变化时,动态分区覆盖行为也会发生变化。例如,如果按天划分分区,而改为按小时划分分区,那么覆盖将覆盖每小时划分的分区,而不再覆盖按天划分的分区。
删除分区字段时要小心,可能导致元数据查询失败或产生不同的结果。
8)修改分区(Spark3,需要配置扩展)
ALTER TABLE hadoop_prod.default.sample1 REPLACE PARTITION FIELD bucket(16, id) WITH bucket(8, id)
9)修改表的写入顺序
ALTER TABLE hadoop_prod.default.sample1 WRITE ORDERED BY category, id
ALTER TABLE hadoop_prod.default.sample1 WRITE ORDERED BY category ASC, id DESC
ALTER TABLE hadoop_prod.default.sample1 WRITE ORDERED BY category ASC NULLS LAST, id DESC NULLS FIRST
表写顺序不能保证查询的数据顺序。它只影响数据写入表的方式。
WRITE ORDERED BY设置了一个全局排序,即跨任务的行排序,就像在INSERT命令中使用ORDER BY一样:
INSERT INTO hadoop_prod.default.sample1
SELECT id, data, category, ts FROM another_table
ORDER BY ts, category
要在每个任务内排序,而不是跨任务排序,使用local ORDERED BY:
ALTER TABLE hadoop_prod.default.sample1 WRITE LOCALLY ORDERED BY category, id
10)按分区并行写入
ALTER TABLE hadoop_prod.default.sample1 WRITE DISTRIBUTED BY PARTITION
ALTER TABLE hadoop_prod.default.sample1 WRITE DISTRIBUTED BY PARTITION LOCALLY ORDERED BY category, id
4.3.4 插入数据
CREATE TABLE hadoop_prod.default.a (
id bigint,
count bigint)
USING iceberg
CREATE TABLE hadoop_prod.default.b (
id bigint,
count bigint,
flag string)
USING iceberg
1)Insert Into
INSERT INTO hadoop_prod.default.a VALUES (1, 1), (2, 2), (3, 3);
INSERT INTO hadoop_prod.default.b VALUES (1, 1, ‘a’), (2, 2, ‘b’), (4, 4, ‘d’);
2)MERGE INTO行级更新
MERGE INTO hadoop_prod.default.a t
USING (SELECT * FROM hadoop_prod.default.b) u ON t.id = u.id
WHEN MATCHED AND u.flag=‘b’ THEN UPDATE SET t.count = t.count + u.count
WHEN MATCHED AND u.flag=‘a’ THEN DELETE
WHEN NOT MATCHED THEN INSERT (id,count) values (u.id,u.count)
4.3.5 查询数据
1)普通查询
SELECT count(1) as count, data
FROM local.db.table
GROUP BY data
2)查询元数据
// 查询表快照
SELECT * FROM hadoop_prod.default.a.snapshots
// 查询数据文件信息
SELECT * FROM hadoop_prod.default.a.files
// 查询表历史
SELECT * FROM hadoop_prod.default.a.history
// 查询 manifest
ELECT * FROM hadoop_prod.default.a.manifests
4.3.6 存储过程
Procedures可以通过CALL从任何已配置的Iceberg Catalog中使用。所有Procedures都在namespace中。
1)语法
按照参数名传参
CALL catalog_name.system.procedure_name(arg_name_2 => arg_2, arg_name_1 => arg_1)
当按位置传递参数时,如果结束参数是可选的,则只有结束参数可以省略。
CALL catalog_name.system.procedure_name(arg_1, arg_2, … arg_n)
2)快照管理
(1)回滚到指定的快照id
CALL hadoop_prod.system.rollback_to_snapshot(‘default.a’, 7601163594701794741)
(2)回滚到指定时间的快照
CALL hadoop_prod.system.rollback_to_timestamp(‘db.sample’, TIMESTAMP ‘2021-06-30 00:00:00.000’)
(3)设置表的当前快照ID
CALL hadoop_prod.system.set_current_snapshot(‘db.sample’, 1)
(4)从快照变为当前表状态
CALL hadoop_prod.system.cherrypick_snapshot(‘default.a’, 7629160535368763452)
CALL hadoop_prod.system.cherrypick_snapshot(snapshot_id => 7629160535368763452, table => ‘default.a’ )
3)元数据管理
(1)删除早于指定日期和时间的快照,但保留最近100个快照:
CALL hive_prod.system.expire_snapshots(‘db.sample’, TIMESTAMP ‘2021-06-30 00:00:00.000’, 100)
(2)删除Iceberg表中任何元数据文件中没有引用的文件
#列出所有需要删除的候选文件
CALL catalog_name.system.remove_orphan_files(table => ‘db.sample’, dry_run => true)
#删除指定目录中db.sample表不知道的任何文件
CALL catalog_name.system.remove_orphan_files(table => ‘db.sample’, location => ‘tablelocation/data’)
(3)合并数据文件(合并小文件)
CALL catalog_name.system.rewrite_data_files(‘db.sample’)
CALL catalog_name.system.rewrite_data_files(table => ‘db.sample’, strategy => ‘sort’, sort_order => ‘id DESC NULLS LAST,name ASC NULLS FIRST’)
CALL catalog_name.system.rewrite_data_files(table => ‘db.sample’, strategy => ‘sort’, sort_order => ‘zorder(c1,c2)’)
CALL catalog_name.system.rewrite_data_files(table => ‘db.sample’, options => map(‘min-input-files’,‘2’))
CALL catalog_name.system.rewrite_data_files(table => ‘db.sample’, where => ‘id = 3 and name = “foo”’)
(4)重写表清单来优化执行计划
CALL catalog_name.system.rewrite_manifests(‘db.sample’)
#重写表db中的清单。并禁用Spark缓存的使用。这样做可以避免执行程序上的内存问题。
CALL catalog_name.system.rewrite_manifests(‘db.sample’, false)
4)迁移表
(1)快照
CALL catalog_name.system.snapshot(‘db.sample’, ‘db.snap’)
CALL catalog_name.system.snapshot(‘db.sample’, ‘db.snap’, ‘/tmp/temptable/’)
(2)迁移
CALL catalog_name.system.migrate(‘spark_catalog.db.sample’, map(‘foo’, ‘bar’))
CALL catalog_name.system.migrate(‘db.sample’)
(3)添加数据文件
CALL spark_catalog.system.add_files(
table => ‘db.tbl’,
source_table => ‘db.src_tbl’,
partition_filter => map(‘part_col_1’, ‘A’)
)
CALL spark_catalog.system.add_files(
table => ‘db.tbl’,
source_table => ‘parquet
.path/to/table
’
)
5)元数据信息
(1)获取指定快照的父快照id
CALL spark_catalog.system.ancestors_of(‘db.tbl’)
(2)获取指定快照的所有祖先快照
CALL spark_catalog.system.ancestors_of(‘db.tbl’, 1)
CALL spark_catalog.system.ancestors_of(snapshot_id => 1, table => ‘db.tbl’)
4.4 DataFrame 操作
4.4.1 环境准备
1)创建maven工程,配置pom文件
4.0.0
com.atguigu.iceberg
spark-iceberg-demo
1.0-SNAPSHOT
2.12
3.3.1
8
8
org.apache.spark
spark-core_${scala.binary.version}
provided
${spark.version}
org.apache.spark
spark-sql_${scala.binary.version}
provided
${spark.version}
org.apache.spark
spark-hive_${scala.binary.version}
provided
${spark.version}
com.alibaba
fastjson
1.2.83
org.apache.iceberg
iceberg-spark-runtime-3.3_2.12
1.1.0
org.apache.maven.plugins
maven-assembly-plugin
3.0.0
make-assembly
package
single
jar-with-dependencies
net.alchim31.maven
scala-maven-plugin
3.2.2
compile
testCompile
2)配置Catalog val spark: SparkSession = SparkSession.builder().master("local").appName(this.getClass.getSimpleName) //指定hive catalog, catalog名称为iceberg_hive .config("spark.sql.catalog.iceberg_hive", "org.apache.iceberg.spark.SparkCatalog") .config("spark.sql.catalog.iceberg_hive.type", "hive") .config("spark.sql.catalog.iceberg_hive.uri", "thrift://hadoop1:9083") // .config("iceberg.engine.hive.enabled", "true") //指定hadoop catalog,catalog名称为iceberg_hadoop .config("spark.sql.catalog.iceberg_hadoop", "org.apache.iceberg.spark.SparkCatalog") .config("spark.sql.catalog.iceberg_hadoop.type", "hadoop") .config("spark.sql.catalog.iceberg_hadoop.warehouse", "hdfs://hadoop1:8020/warehouse/spark-iceberg") .getOrCreate() 4.4.2 读取表 1)加载表 spark.read .format("iceberg") .load("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a") .show() 或 // 仅支持Spark3.0以上 spark.table("iceberg_hadoop.default.a") .show() 2)时间旅行:指定时间查询 spark.read .option("as-of-timestamp", "499162860000") .format("iceberg") .load("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a") .show() 3)时间旅行:指定快照id查询 spark.read .option("snapshot-id", 7601163594701794741L) .format("iceberg") .load("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a") .show() 4)增量查询 spark.read .format("iceberg") .option("start-snapshot-id", "10963874102873") .option("end-snapshot-id", "63874143573109") .load("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a") .show() 查询的表只能是append的方式写数据,不支持replace, overwrite, delete操作。 4.4.3 检查表 1)查询元数据 spark.read.format("iceberg").load("iceberg_hadoop.default.a.files")
spark.read.format(“iceberg”).load(“hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a#files”)
2)元数据表时间旅行查询
spark.read
.format(“iceberg”)
.option(“snapshot-id”, 7601163594701794741L)
.load(“iceberg_hadoop.default.a.files”)
4.4.4 写入表
1)创建样例类,准备DF
case class Sample(id:Int,data:String,category:String)
val df: DataFrame = spark.createDataFrame(Seq(Sample(1,‘A’, ‘a’), Sample(2,‘B’, ‘b’), Sample(3,‘C’, ‘c’)))
2)插入数据并建表
df.writeTo(“iceberg_hadoop.default.table1”).create()
import spark.implicits._
df.writeTo(“iceberg_hadoop.default.table1”)
.tableProperty(“write.format.default”, “orc”)
.partitionedBy( " c a t e g o r y " ) . c r e a t e O r R e p l a c e ( ) 3 ) a p p e n d 追加 d f . w r i t e T o ( " i c e b e r g h a d o o p . d e f a u l t . t a b l e 1 " ) . a p p e n d ( ) 4 )动态分区覆盖 d f . w r i t e T o ( " i c e b e r g h a d o o p . d e f a u l t . t a b l e 1 " ) . o v e r w r i t e P a r t i t i o n s ( ) 5 )静态分区覆盖 i m p o r t s p a r k . i m p l i c i t s . d f . w r i t e T o ( " i c e b e r g h a d o o p . d e f a u l t . t a b l e 1 " ) . o v e r w r i t e ( "category") .createOrReplace() 3)append追加 df.writeTo("iceberg_hadoop.default.table1").append() 4)动态分区覆盖 df.writeTo("iceberg_hadoop.default.table1").overwritePartitions() 5)静态分区覆盖 import spark.implicits._ df.writeTo("iceberg_hadoop.default.table1").overwrite( "category").createOrReplace()3)append追加df.writeTo("iceberghadoop.default.table1").append()4)动态分区覆盖df.writeTo("iceberghadoop.default.table1").overwritePartitions()5)静态分区覆盖importspark.implicits.df.writeTo("iceberghadoop.default.table1").overwrite(“category” === “c”)
6)插入分区表且分区内排序
df.sortWithinPartitions(“category”)
.writeTo(“iceberg_hadoop.default.table1”)
.append()
4.4.5 维护表
1)获取Table对象
(1)HadoopCatalog
import org.apache.hadoop.conf.Configuration;
import org.apache.iceberg.hadoop.HadoopCatalog;
import org.apache.iceberg.Table;
import org.apache.iceberg.catalog.TableIdentifier;
val conf = new Configuration()
val catalog = new HadoopCatalog(conf,“hdfs://hadoop1:8020/warehouse/spark-iceberg”)
val table: Table = catalog.loadTable(TableIdentifier.of(“db”,“table1”))
(2)HiveCatalog
import org.apache.iceberg.hive.HiveCatalog;
import org.apache.iceberg.Table;
import org.apache.iceberg.catalog.TableIdentifier;
val catalog = new HiveCatalog()
catalog.setConf(spark.sparkContext.hadoopConfiguration)
val properties = new util.HashMapString,String
properties.put(“warehouse”, “hdfs://hadoop1:8020/warehouse/spark-iceberg”)
properties.put(“uri”, “thrift://hadoop1:9083”)
catalog.initialize(“hive”, properties)
val table: Table = catalog.loadTable(TableIdentifier.of(“db”, “table1”))
2)快照过期清理
每次写入Iceberg表都会创建一个表的新快照或版本。快照可以用于时间旅行查询,或者可以将表回滚到任何有效的快照。建议设置快照过期时间,过期的旧快照将从元数据中删除(不再可用于时间旅行查询)。
// 1天过期时间
val tsToExpire: Long = System.currentTimeMillis() - (1000 * 60 * 60 * 24)
table.expireSnapshots()
.expireOlderThan(tsToExpire)
.commit()
或使用SparkActions来设置过期:
//SparkActions可以并行运行大型表的表过期设置
SparkActions.get()
.expireSnapshots(table)
.expireOlderThan(tsToExpire)
.execute()
3)删除无效文件
在Spark和其他分布式处理引擎中,任务或作业失败可能会留下未被表元数据引用的文件,在某些情况下,正常的快照过期可能无法确定不再需要并删除该文件。
SparkActions
.get()
.deleteOrphanFiles(table)
.execute()
4)合并小文件
数据文件过多会导致更多的元数据存储在清单文件中,而较小的数据文件会导致不必要的元数据量和更低效率的文件打开成本。
SparkActions
.get()
.rewriteDataFiles(table)
.filter(Expressions.equal(“category”, “a”))
.option(“target-file-size-bytes”, 1024L.toString) //1KB
.execute()
第5章 与 Flink SQL 集成
Apache Iceberg同时支持Apache Flink的DataStream API和Table API。
5.1 环境准备
5.1.1 安装 Flink
1)Flink与Iceberg的版本对应关系如下
Flink 版本 Iceberg 版本
1.11 0.9.0 – 0.12.1
1.12 0.12.0 – 0.13.1
1.13 0.13.0 – 1.0.0
1.14 0.13.0 – 1.1.0
1.15 0.14.0 – 1.1.0
1.16 1.1.0 – 1.1.0
2)上传并解压Flink安装包
tar -zxvf flink-1.16.0-bin-scala_2.12.tgz -C /opt/module/
3)配置环境变量
sudo vim /etc/profile.d/my_env.sh
export HADOOP_CLASSPATH=hadoop classpath
source /etc/profile.d/my_env.sh
4)拷贝iceberg的jar包到Flink的lib目录
cp /opt/software/iceberg/iceberg-flink-runtime-1.16-1.1.0.jar /opt/module/flink-1.16.0/lib
5.1.2 启动 Hadoop
(略)
5.1.3 启动 sql-client
1)修改flink-conf.yaml配置
vim /opt/module/flink-1.16.0/conf/flink-conf.yaml
classloader.check-leaked-classloader: false
taskmanager.numberOfTaskSlots: 4
state.backend: rocksdb
execution.checkpointing.interval: 30000
state.checkpoints.dir: hdfs://hadoop1:8020/ckps
state.backend.incremental: true
2)local模式
(1)修改workers
vim /opt/module/flink-1.16.0/conf/workers
#表示:会在本地启动3个TaskManager的 local集群
localhost
localhost
localhost
(2)启动Flink
/opt/module/flink-1.16.0/bin/start-cluster.sh
查看webui:http://hadoop1:8081
(3)启动Flink的sql-client
/opt/module/flink-1.16.0/bin/sql-client.sh embedded
5.2 创建和使用 Catalog
5.2.1 语法说明
CREATE CATALOG
‘type’=‘iceberg’,
=
);
type: 必须是iceberg。(必须)
catalog-type: 内置了hive和hadoop两种catalog,也可以使用catalog-impl来自定义catalog。(可选)
catalog-impl: 自定义catalog实现的全限定类名。如果未设置catalog-type,则必须设置。(可选)
property-version: 描述属性版本的版本号。此属性可用于向后兼容,以防属性格式更改。当前属性版本为1。(可选)
cache-enabled: 是否启用目录缓存,默认值为true。(可选)
cache.expiration-interval-ms: 本地缓存catalog条目的时间(以毫秒为单位);负值,如-1表示没有时间限制,不允许设为0。默认值为-1。(可选)
5.2.2 Hive Catalog
1)上传hive connector到flink的lib中
cp flink-sql-connector-hive-3.1.2_2.12-1.16.0.jar /opt/module/flink-1.16.0/lib/
2)启动hive metastore服务
hive --service metastore
3)创建hive catalog
重启flink集群,重新进入sql-client
CREATE CATALOG hive_catalog WITH (
‘type’=‘iceberg’,
‘catalog-type’=‘hive’,
‘uri’=‘thrift://hadoop1:9083’,
‘clients’=‘5’,
‘property-version’=‘1’,
‘warehouse’=‘hdfs://hadoop1:8020/warehouse/iceberg-hive’
);
use catalog hive_catalog;
uri: Hive metastore的thrift uri。(必选)
clients:Hive metastore客户端池大小,默认为2。(可选)
warehouse: 数仓目录。
hive-conf-dir:包含hive-site.xml配置文件的目录路径,hive-site.xml中hive.metastore.warehouse.dir 的值会被warehouse覆盖。
hadoop-conf-dir:包含core-site.xml和hdfs-site.xml配置文件的目录路径。
5.2.3 Hadoop Catalog
Iceberg还支持HDFS中基于目录的catalog,可以使用’catalog-type’='hadoop’配置。
CREATE CATALOG hadoop_catalog WITH (
‘type’=‘iceberg’,
‘catalog-type’=‘hadoop’,
‘warehouse’=‘hdfs://hadoop1:8020/warehouse/iceberg-hadoop’,
‘property-version’=‘1’
);
use catalog hadoop_catalog;
warehouse:存放元数据文件和数据文件的HDFS目录。(必需)
5.2.4 配置sql-client初始化文件
vim /opt/module/flink-1.16.0/conf/sql-client-init.sql
CREATE CATALOG hive_catalog WITH (
‘type’=‘iceberg’,
‘catalog-type’=‘hive’,
‘uri’=‘thrift://hadoop1:9083’,
‘warehouse’=‘hdfs://hadoop1:8020/warehouse/iceberg-hive’
);
USE CATALOG hive_catalog;
后续启动sql-client时,加上 -i sql文件路径 即可完成catalog的初始化。
/opt/module/flink-1.16.0/bin/sql-client.sh embedded -i conf/sql-client-init.sql
5.3 DDL 语句
5.3.1 创建数据库
CREATE DATABASE iceberg_db;
USE iceberg_db;
5.3.2 创建表
CREATE TABLE hive_catalog
.default
.sample
(
id BIGINT COMMENT ‘unique id’,
data STRING
);
建表命令现在支持最常用的flink建表语法,包括:
PARTITION BY (column1, column2, …):配置分区,apache flink还不支持隐藏分区。
COMMENT ‘table document’:指定表的备注
WITH (‘key’=‘value’, …):设置表属性
目前,不支持计算列、watermark(支持主键)。
1)创建分区表
CREATE TABLE hive_catalog
.default
.sample
(
id BIGINT COMMENT ‘unique id’,
data STRING
) PARTITIONED BY (data);
Apache Iceberg支持隐藏分区,但Apache flink不支持在列上通过函数进行分区,现在无法在flink DDL中支持隐藏分区。
2)使用LIKE语法建表
LIKE语法用于创建一个与另一个表具有相同schema、分区和属性的表。
CREATE TABLE hive_catalog
.default
.sample
(
id BIGINT COMMENT ‘unique id’,
data STRING
);
CREATE TABLE hive_catalog
.default
.sample_like
LIKE hive_catalog
.default
.sample
;
5.3.3 修改表
1)修改表属性
ALTER TABLE hive_catalog
.default
.sample
SET (‘write.format.default’=‘avro’);
2)修改表名
ALTER TABLE hive_catalog
.default
.sample
RENAME TO hive_catalog
.default
.new_sample
;
5.3.4 删除表
DROP TABLE hive_catalog
.default
.sample
;
5.4 插入语句
5.4.1 INSERT INTO
INSERT INTO hive_catalog
.default
.sample
VALUES (1, ‘a’);
INSERT INTO hive_catalog
.default
.sample
SELECT id, data from sample2;
5.4.2 INSERT OVERWRITE
仅支持Flink的Batch模式
SET execution.runtime-mode = batch;
INSERT OVERWRITE sample VALUES (1, ‘a’);
INSERT OVERWRITE hive_catalog
.default
.sample
PARTITION(data=‘a’) SELECT 6;
5.4.3 UPSERT
当将数据写入v2表格式时,Iceberg支持基于主键的UPSERT。有两种方法可以启用upsert。
1)建表时指定
CREATE TABLE hive_catalog
.test1
.sample5
(
id
INT UNIQUE COMMENT ‘unique id’,
data
STRING NOT NULL,
PRIMARY KEY(id
) NOT ENFORCED
) with (
‘format-version’=‘2’,
‘write.upsert.enabled’=‘true’
);
2)插入时指定
INSERT INTO tableName /*+ OPTIONS(‘upsert-enabled’=‘true’) */
…
插入的表,format-version需要为2。
OVERWRITE和UPSERT不能同时设置。在UPSERT模式下,如果对表进行分区,则分区字段必须也是主键。
3)读取Kafka流,upsert插入到iceberg表中
create table default_catalog.default_database.kafka(
id int,
data string
) with (
‘connector’ = ‘kafka’
,‘topic’ = ‘test111’
,‘properties.zookeeper.connect’ = ‘hadoop1:2181’
,‘properties.bootstrap.servers’ = ‘hadoop1:9092’
,‘format’ = ‘json’
,‘properties.group.id’=‘iceberg’
,‘scan.startup.mode’=‘earliest-offset’
);
INSERT INTO hive_catalog.test1.sample5 SELECT * FROM default_catalog.default_database.kafka;
5.5 查询语句
Iceberg支持Flink的流式和批量读取。
5.5.1 Batch模式
SET execution.runtime-mode = batch;
select * from sample;
5.5.2 Streaming模式
SET execution.runtime-mode = streaming;
SET table.dynamic-table-options.enabled=true;
SET sql-client.execution.result-mode=tableau;
1)从当前快照读取所有记录,然后从该快照读取增量数据
SELECT * FROM sample5 /+ OPTIONS(‘streaming’=‘true’, ‘monitor-interval’=‘1s’)/ ;
2)读取指定快照id(不包含)后的增量数据
SELECT * FROM sample /+ OPTIONS(‘streaming’=‘true’, ‘monitor-interval’=‘1s’, ‘start-snapshot-id’=‘3821550127947089987’)/ ;
monitor-interval: 连续监控新提交数据文件的时间间隔(默认为10s)。
start-snapshot-id: 流作业开始的快照id。
注意:如果是无界数据流式upsert进iceberg表(读kafka,upsert进iceberg表),那么再去流读iceberg表会存在读不出数据的问题。如果无界数据流式append进iceberg表(读kafka,append进iceberg表),那么流读该iceberg表可以正常看到结果。
5.6 与Flink集成的不足
支持的特性 Flink 备注
SQL create catalog √
SQL create database √
SQL create table √
SQL create table like √
SQL alter table √ 只支持修改表属性,不支持更改列和分区
SQL drop_table √
SQL select √ 支持流式和批处理模式
SQL insert into √ 支持流式和批处理模式
SQL insert overwrite √
DataStream read √
DataStream append √
DataStream overwrite √
Metadata tables 支持Java API,不支持Flink SQL
Rewrite files action √
不支持创建隐藏分区的Iceberg表。
不支持创建带有计算列的Iceberg表。
不支持创建带watermark的Iceberg表。
不支持添加列,删除列,重命名列,更改列。
Iceberg目前不支持Flink SQL 查询表的元数据信息,需要使用Java API 实现。
第6章 与 Flink DataStream 集成
6.1 环境准备
6.1.1 配置pom文件
新建Maven工程,pom文件配置如下:
4.0.0
com.atguigu.iceberg
flink-iceberg-demo
1.0-SNAPSHOT
8
8
1.16.0
1.8
2.12
1.7.30
org.apache.flink
flink-java
${flink.version}
provided
org.apache.flink
flink-streaming-java
${flink.version}
provided
org.apache.flink
flink-clients
${flink.version}
provided
org.apache.flink
flink-table-planner_${scala.binary.version}
${flink.version}
provided
org.apache.flink
flink-connector-files
${flink.version}
provided
org.apache.flink
flink-runtime-web
${flink.version}
provided
org.slf4j
slf4j-api
${slf4j.version}
provided
org.slf4j
slf4j-log4j12
${slf4j.version}
provided
org.apache.logging.log4j
log4j-to-slf4j
2.14.0
provided
org.apache.flink
flink-statebackend-rocksdb
${flink.version}
org.apache.hadoop
hadoop-client
3.1.3
provided
org.apache.iceberg
iceberg-flink-runtime-1.16
1.1.0
org.apache.maven.plugins
maven-shade-plugin
3.2.4
package
shade
com.google.code.findbugs:jsr305
org.slf4j:*
log4j:*
org.apache.hadoop:*
*:*
META-INF/*.SF
META-INF/*.DSA
META-INF/*.RSA
6.1.2 配置log4j resources目录下新建log4j.properties。 log4j.rootLogger=error,stdout log4j.appender.stdout=org.apache.log4j.ConsoleAppender log4j.appender.stdout.target=System.out log4j.appender.stdout.layout=org.apache.log4j.PatternLayout log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n 6.2 读取数据 6.2.1 常规Source写法 1)Batch方式 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); TableLoader tableLoader = TableLoader.fromHadoopTable("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a"); DataStream batch = FlinkSource.forRowData() .env(env) .tableLoader(tableLoader) .streaming(false) .build();
batch.map(r -> Tuple2.of(r.getLong(0),r.getLong(1) ))
.returns(Types.TUPLE(Types.LONG,Types.LONG))
.print();
env.execute(“Test Iceberg Read”);
2)Streaming方式
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
TableLoader tableLoader = TableLoader.fromHadoopTable(“hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a”);
DataStream stream = FlinkSource.forRowData()
.env(env)
.tableLoader(tableLoader)
.streaming(true)
.startSnapshotId(3821550127947089987L)
.build();
stream.map(r -> Tuple2.of(r.getLong(0),r.getLong(1) ))
.returns(Types.TUPLE(Types.LONG,Types.LONG))
.print();
env.execute(“Test Iceberg Read”);
6.2.2 FLIP-27 Source写法
1)Batch方式
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
TableLoader tableLoader = TableLoader.fromHadoopTable(“hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a”);
IcebergSource source1 = IcebergSource.forRowData()
.tableLoader(tableLoader)
.assignerFactory(new SimpleSplitAssignerFactory())
.build();
DataStream batch = env.fromSource(
Source1,
WatermarkStrategy.noWatermarks(),
"My Iceberg Source",
TypeInformation.of(RowData.class));
batch.map(r -> Tuple2.of(r.getLong(0), r.getLong(1)))
.returns(Types.TUPLE(Types.LONG, Types.LONG))
.print();
env.execute("Test Iceberg Read");
2)Streaming方式
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
TableLoader tableLoader = TableLoader.fromHadoopTable(“hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a”);
IcebergSource source2 = IcebergSource.forRowData()
.tableLoader(tableLoader)
.assignerFactory(new SimpleSplitAssignerFactory())
.streaming(true)
.streamingStartingStrategy(StreamingStartingStrategy.INCREMENTAL_FROM_LATEST_SNAPSHOT)
.monitorInterval(Duration.ofSeconds(60))
.build();
DataStream stream = env.fromSource(
Source2,
WatermarkStrategy.noWatermarks(),
"My Iceberg Source",
TypeInformation.of(RowData.class));
stream.map(r -> Tuple2.of(r.getLong(0), r.getLong(1)))
.returns(Types.TUPLE(Types.LONG, Types.LONG))
.print();
env.execute("Test Iceberg Read");
6.3 写入数据
目前支持DataStream和DataStream格式的数据流写入Iceberg表。
1)写入方式支持 append、overwrite、upsert
StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
env.setParallelism(1);
SingleOutputStreamOperator input = env.fromElements("")
.map(new MapFunction() {
@Override
public RowData map(String s) throws Exception {
GenericRowData genericRowData = new GenericRowData(2);
genericRowData.setField(0, 99L);
genericRowData.setField(1, 99L);
return genericRowData;
}
});
TableLoader tableLoader = TableLoader.fromHadoopTable("hdfs://hadoop1:8020/warehouse/spark-iceberg/default/a");
FlinkSink.forRowData(input)
.tableLoader(tableLoader)
.append() // append方式
//.overwrite(true) // overwrite方式
//.upsert(true) // upsert方式
;
env.execute(“Test Iceberg DataStream”);
2)写入选项
FlinkSink.forRowData(input)
.tableLoader(tableLoader)
.set(“write-format”, “orc”)
.set(FlinkWriteOptions.OVERWRITE_MODE, “true”);
可配置选项如下:
选项 默认值 说明
write-format Parquet
同write.format.default 写入操作使用的文件格式:Parquet, avro或orc
target-file-size-bytes 536870912(512MB)
同write.target-file-size-bytes 控制生成的文件的大小,目标大约为这么多字节
upsert-enabled 同write.upsert.enabled,
overwrite-enabled false 覆盖表的数据,不能和UPSERT模式同时开启
distribution-mode None
同 write.distribution-mode 定义写数据的分布方式:
none:不打乱行;
hash:按分区键散列分布;
range:如果表有SortOrder,则通过分区键或排序键分配
compression-codec 同 write.(fileformat).compression-codec
compression-level 同 write.(fileformat).compression-level
compression-strategy 同write.orc.compression-strategy
6.4 合并小文件
Iceberg现在不支持在flink sql中检查表,需要使用Iceberg提供的Java API来读取元数据来获得表信息。可以通过提交Flink批处理作业将小文件重写为大文件:
import org.apache.iceberg.flink.actions.Actions;
// 1.获取 Table对象
// 1.1 创建 catalog对象
Configuration conf = new Configuration();
HadoopCatalog hadoopCatalog = new HadoopCatalog(conf, "hdfs://hadoop1:8020/warehouse/spark-iceberg");
// 1.2 通过 catalog加载 Table对象
Table table = hadoopCatalog.loadTable(TableIdentifier.of("default", "a"));
// 有Table对象,就可以获取元数据、进行维护表的操作
// System.out.println(table.history());
// System.out.println(table.expireSnapshots().expireOlderThan());
// 2.通过 Actions 来操作 合并
Actions.forTable(table)
.rewriteDataFiles()
.targetSizeInBytes(1024L)
.execute();
得到Table对象,就可以获取元数据、进行维护表的操作。更多Iceberg提供的API操作,参考:https://iceberg.apache.org/docs/latest/api/