Iceberg的最新版本是1.4.3。
Spark 是目前用于 Iceberg 操作的功能最丰富的计算引擎。建议您开始使用 Spark,通过示例了解 Iceberg 概念和功能。您还可以在多引擎支持页面下查看将 Iceberg 与其他计算引擎结合使用的文档。
要在 Spark shell 中使用 Iceberg,请使用 --packages 选项:
spark-shell --packages org.apache.iceberg:iceberg-spark-runtime-3.2_2.12:1.4.3
如果想在 Spark 安装中包含 Iceberg,请将iceberg-spark-runtime-3.2_2.12 Jar 添加到 Spark 的 jars 文件夹中。
Iceberg 附带了目录,使 SQL 命令能够管理表并按名称加载它们。使用spark.sql.catalog.(catalog_name)下的属性配置目录。
此命令为 $PWD/warehouse 下的表创建一个名为 local 的基于路径的目录,并向 Spark 的内置目录添加对 Iceberg 表的支持:
spark-sql --packages org.apache.iceberg:iceberg-spark-runtime-3.2_2.12:1.4.3\
--conf spark.sql.extensions=org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions \
--conf spark.sql.catalog.spark_catalog=org.apache.iceberg.spark.SparkSessionCatalog \
--conf spark.sql.catalog.spark_catalog.type=hive \
--conf spark.sql.catalog.local=org.apache.iceberg.spark.SparkCatalog \
--conf spark.sql.catalog.local.type=hadoop \
--conf spark.sql.catalog.local.warehouse=$PWD/warehouse
要在 Spark 中创建第一个 Iceberg 表,请使用 Spark-sql shell 或 Spark.sql(…) 运行 CREATE TABLE 命令:
CREATE TABLE local.db.table (id bigint, data string) USING iceberg
Iceberg 目录支持全系列 SQL DDL 命令,包括:
创建表后,使用 INSERT INTO 插入数据:
INSERT INTO local.db.table VALUES (1, 'a'), (2, 'b'), (3, 'c');
INSERT INTO local.db.table SELECT id, data FROM source WHERE length(data) = 1;
Iceberg 还向 Spark、MERGE INTO 和 DELETE FROM 添加了行级 SQL 更新:
MERGE INTO local.db.target t USING (SELECT * FROM updates) u ON t.id = u.id
WHEN MATCHED THEN UPDATE SET t.count = t.count + u.count
WHEN NOT MATCHED THEN INSERT *
这段代码是一个使用 MERGE INTO 语句进行数据合并的示例。它将来自更新表的数据合并到目标表中。具体的操作如下:
(SELECT * FROM updates) u
获取更新表的数据,并将其作为源表使用。local.db.target
作为目标表进行更新。ON t.id = u.id
来指定源表和目标表之间的连接条件。这里使用了 id
列作为连接条件。WHEN MATCHED
分支的操作。这里使用 UPDATE SET t.count = t.count + u.count
将目标表中的 count
列的值增加源表中对应行的 count
值。WHEN NOT MATCHED
分支的操作。这里使用 INSERT *
将源表中的数据插入到目标表中。总之,这段代码通过 MERGE INTO 语句将更新表的数据合并到目标表中,根据连接条件进行更新或插入操作。
Iceberg 支持使用新的 v2 DataFrame 写入 API 写入 DataFrame:
spark.table("source").select("id", "data")
.writeTo("local.db.table").append()
支持旧的写入 API,但不推荐。
要使用 SQL 读取,请在 SELECT 查询中使用 Iceberg 表名称:
SELECT count(1) as count, data
FROM local.db.table
GROUP BY data
SQL 也是检查表的推荐方法。要查看表中的所有快照,请使用快照元数据表:
SELECT * FROM local.db.table.snapshots
+-------------------------+----------------+-----------+-----------+----------------------------------------------------+-----+
| committed_at | snapshot_id | parent_id | operation | manifest_list | ... |
+-------------------------+----------------+-----------+-----------+----------------------------------------------------+-----+
| 2019-02-08 03:29:51.215 | 57897183625154 | null | append | s3://.../table/metadata/snap-57897183625154-1.avro | ... |
| | | | | | ... |
| | | | | | ... |
| ... | ... | ... | ... | ... | ... |
+-------------------------+----------------+-----------+-----------+----------------------------------------------------+-----+
支持 DataFrame 读取,现在可以使用 Spark.table 按名称引用表:
val df = spark.table("local.db.table")
df.count()
Spark 添加了一个 API 来插入用于加载、创建和管理 Iceberg 表的表目录。 Spark 目录是通过在spark.sql.catalog 下设置Spark 属性来配置的。
这将创建一个名为 hive_prod 的 Iceberg 目录,该目录从 Hive 元存储加载表:
spark.sql.catalog.hive_prod = org.apache.iceberg.spark.SparkCatalog
spark.sql.catalog.hive_prod.type = hive
spark.sql.catalog.hive_prod.uri = thrift://metastore-host:port
# omit uri to use the same URI as Spark: hive.metastore.uris in hive-site.xml
以下是名为rest_prod 的 REST 目录示例,该目录从 REST URL http://localhost:8080 加载表:
spark.sql.catalog.rest_prod = org.apache.iceberg.spark.SparkCatalog
spark.sql.catalog.rest_prod.type = rest
spark.sql.catalog.rest_prod.uri = http://localhost:8080
Iceberg 还支持 HDFS 中基于目录的目录,可以使用 type=hadoop 进行配置:
spark.sql.catalog.hadoop_prod = org.apache.iceberg.spark.SparkCatalog
spark.sql.catalog.hadoop_prod.type = hadoop
spark.sql.catalog.hadoop_prod.warehouse = hdfs://nn:8020/warehouse/path
基于 Hive 的目录仅加载 Iceberg 表。要在同一 Hive 元存储中加载非 Iceberg 表,请使用会话目录。
通过添加属性spark.sql.catalog.(catalog-name) 及其值的实现类来创建和命名目录。
Iceberg 提供了两种实现:
两个目录均使用嵌套在目录名称下的属性进行配置。 Hive 和 Hadoop 的常见配置属性有:
属性 | 值 | 描述 |
---|---|---|
spark.sql.catalog.catalog-name.type | hive, hadoop or rest | 底层 Iceberg 目录实现、HiveCatalog、HadoopCatalog、RESTCatalog 或在使用自定义目录时保持未设置 |
spark.sql.catalog.catalog-name.catalog-impl | 自定义 Iceberg 目录实现。如果 type 为 null,则 Catalog-impl 不得为 null。 | |
spark.sql.catalog.catalog-name.io-impl | 自定义 FileIO 实现。 | |
spark.sql.catalog.catalog-name.metrics-reporter-impl | 自定义 MetricsReporter 实现。 | |
spark.sql.catalog.catalog-name.default-namespace | default | 目录的默认当前命名空间 |
spark.sql.catalog.catalog-name.uri | thrift://host:port | Hive 类型目录的 Hive 元存储 URL、REST 类型目录的 REST URL |
spark.sql.catalog.catalog-name.warehouse | hdfs://nn:8020/warehouse/path | 仓库目录的基本路径 |
Spark.sql.catalog.catalog-name.cache-enabled | true or false | 是否启用目录缓存,默认值为true |
spark.sql.catalog.catalog-name.cache.expiration-interval-ms | 30000 (30 seconds) | 缓存的目录条目过期的持续时间;仅当启用缓存为 true 时才有效。 -1 禁用缓存过期,0 完全禁用缓存,无论是否启用缓存。默认值为 30000(30 秒) |
spark.sql.catalog.catalog-name.table-default.propertyKey | 属性键 propertyKey 的默认 Iceberg 表属性值,如果未覆盖,将在此目录创建的表上设置该值 | |
Spark.sql.catalog.catalog-name.table-override.propertyKey | 属性键 propertyKey 的强制 Iceberg 表属性值,用户无法覆盖该值 |
目录名称在 SQL 查询中用于标识表。在上面的示例中, hive_prod 和 hadoop_prod 可用于为将从这些目录加载的数据库和表名称添加前缀。
SELECT * FROM hive_prod.db.table
Spark 3 跟踪当前目录和命名空间,表名称中可以省略它们。
USE hive_prod.db;
SELECT * FROM table
要查看当前目录和命名空间,请运行 SHOW CURRENT NAMESPACE。
要将 Iceberg 表支持添加到 Spark 的内置目录,请配置 Spark_catalog 以使用 Iceberg 的 SparkSessionCatalog。
spark.sql.catalog.spark_catalog = org.apache.iceberg.spark.SparkSessionCatalog
spark.sql.catalog.spark_catalog.type = hive
Spark 的内置目录支持 Hive Metastore 中跟踪的现有 v1 和 v2 表。这将 Spark 配置为使用 Iceberg 的 SparkSessionCatalog 作为该会话目录的包装器。当表不是 Iceberg 表时,将使用内置目录来加载它。
此配置可以对 Iceberg 和非 Iceberg 表使用相同的 Hive Metastore。
与使用 Spark.hadoop.* 配置 Hadoop 属性类似,在使用 Spark 时,可以通过添加带有前缀 Spark.sql.catalog.(catalog-name).hadoop 的目录属性来设置每个目录的 Hadoop 配置值。 *。这些属性将优先于使用spark.hadoop.*全局配置的值,并且仅影响Iceberg表。
spark.sql.catalog.hadoop_prod.hadoop.fs.s3a.endpoint = http://aws-local:9000
Spark 支持通过指定catalog-impl 属性来加载自定义Iceberg Catalog 实现。这是一个例子:
spark.sql.catalog.custom_prod = org.apache.iceberg.spark.SparkCatalog
spark.sql.catalog.custom_prod.catalog-impl = com.my.custom.CatalogImpl
spark.sql.catalog.custom_prod.my-additional-catalog-config = my-value
Iceberg 0.11.0 及更高版本向 Spark 添加了一个扩展模块,以添加新的 SQL 命令,例如存储过程的 CALL 或 ALTER TABLE … WRITE ORDERED BY。
使用这些 SQL 命令需要使用以下 Spark 属性将 Iceberg 扩展添加到您的 Spark 环境:
Spark 扩展属性 | Iceberg扩展实施 |
---|---|
spark.sql.extensions | org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions |
配置 DataFrameReader 时会传递 Spark 读取选项,如下所示:
// time travel
spark.read
.option("snapshot-id", 10963874102873L)
.table("catalog.db.table")
Spark选项 | 默认值 | 描述 |
---|---|---|
snapshot-id | (latest) | 要读取的表快照的快照 ID |
as-of-timestamp | (latest) | 以毫秒为单位的时间戳;使用的快照将是此时的当前快照。 |
split-size | 根据表属性 | 覆盖此表的 read.split.target-size 和 read.split.metadata-target-size |
lookback | 根据表属性 | 覆盖此表的 read.split.planning-lookback |
file-open-cost | 根据表属性 | 覆盖此表的 read.split.open-file-cost |
vectorization-enabled | 根据表属性 | 覆盖此表的 read.parquet.vectorization.enabled |
batch-size | 根据表属性 | 覆盖此表的 read.parquet.vectorization.batch-size |
stream-from-timestamp | (none) | 流式传输的时间戳(以毫秒为单位);如果在最旧的已知祖先快照之前,则将使用最旧的 |
配置 DataFrameWriter 时会传递 Spark 写入选项,如下所示:
df.write
.option("write-format", "avro")
.option("snapshot-property.key", "value")
.insertInto("catalog.db.table")
Spark选项 | 默认值 | 描述 |
---|---|---|
write-format | 表 write.format.default | 用于此写入操作的文件格式;parquet, avro, or orc |
target-file-size-bytes | 根据表属性 | 覆盖此表的 write.target-file-size-bytes |
check-nullability | true | 设置字段可空检查 |
snapshot-property.custom-key | null | 在快照摘要中添加具有自定义键和相应值的条目(仅 DSv2 需要快照属性。前缀) |
fanout-enabled | false | 覆盖此表的 write.spark.fanout.enabled |
check-ordering | true | 检查输入模式和表模式是否相同 |
isolation-level | null | 数据帧覆盖操作所需的隔离级别。 null => 不检查(对于幂等写入),serializable => 检查目标分区中的并发插入或删除,snapshot => 检查目标分区中的并发删除。 |
validate-from-snapshot-id | null | 如果设置了隔离级别,则为用于检查表中并发写入冲突的基本快照的 ID。应该是从表中进行任何读取之前的快照。可以通过 Table API 或 Snapshots 表获取。如果为空,则使用表中最旧的已知快照。 |
compression-codec | Table write.(fileformat).compression-codec | 覆盖此写入的此表的压缩编解码器 |
compression-level | Table write.(fileformat).compression-level | 对于此写入,覆盖此表的 Parquet 和 Avro 表的压缩级别 |
compression-strategy | Table write.orc.compression-strategy | 针对此写入覆盖此表的 ORC 表压缩策略 |
CommitMetadata 提供了一个接口,用于在 SQL 执行期间将自定义元数据添加到快照摘要中,这对于审计或更改跟踪等目的非常有用。如果属性以 snapshot-property. 开头,则该前缀将从每个属性中删除。这是一个例子:
import org.apache.iceberg.spark.CommitMetadata;
Map<String, String> properties = Maps.newHashMap();
properties.put("property_key", "property_value");
CommitMetadata.withCommitProperties(properties,
() -> {
spark.sql("DELETE FROM " + tableName + " where id = 1");
return 0;
},
RuntimeException.class);
要在 Spark 中使用 Iceberg,请首先配置 Spark 目录。存储过程仅在 Spark 3 中使用 Iceberg SQL 扩展时可用。
可以通过 CALL 从任何配置的 Iceberg 目录中使用过程。所有过程都在命名空间系统中。
CALL 支持按名称(推荐)或按位置传递参数。不支持混合位置参数和命名参数。
命名参数
所有过程参数均已命名。按名称传递参数时,参数可以按任何顺序,并且可以省略任何可选参数
CALL catalog_name.system.procedure_name(arg_name_2 => arg_2, arg_name_1 => arg_1)
位置参数
按位置传递参数时,只有结尾参数可以省略(如果它们是可选的)。
CALL catalog_name.system.procedure_name(arg_1, arg_2, ... arg_n)
快照管理
rollback_to_snapshot
将表回滚到特定快照 ID。
要回滚到特定时间,请使用 rollback_to_timestamp。
此过程会使所有引用受影响表的缓存 Spark 计划失效。
参数名称 | Required | Type | 描述 |
---|---|---|---|
table | ✔️ | string | 要更新的表的名称 |
snapshot_id | ✔️ | long | 要回滚到的快照 ID |
Output Name | Type | 描述 |
---|---|---|
previous_snapshot_id | long | 回滚前当前快照ID |
current_snapshot_id | long | 新的当前快照 ID |
将表 db.sample 回滚到快照 ID 1:
CALL catalog_name.system.rollback_to_snapshot('db.sample', 1)
rollback_to_timestamp
将表回滚到某个时间的当前快照。
参数名称 | Required | Type | 描述 |
---|---|---|---|
table | ✔️ | string | 要更新的表的名称 |
timestamp | ✔️ | timestamp | 要回滚到的时间戳 |
Output Name | Type | 描述 |
---|---|---|
previous_snapshot_id | long | 回滚前当前快照ID |
current_snapshot_id | long | 新的当前快照 ID |
将 db.sample 回滚到特定的日期和时间。
CALL catalog_name.system.rollback_to_timestamp('db.sample', TIMESTAMP '2021-06-30 00:00:00.000')
set_current_snapshot
设置表的当前快照 ID。
与回滚不同,快照不需要是当前表状态的祖先。
CALL catalog_name.system.set_current_snapshot('db.sample', 1)
cherrypick_snapshot
从现有快照创建新快照,而不更改或删除原始快照。
只能选择追加和动态覆盖快照。
CALL catalog_name.system.cherrypick_snapshot('my_table', 1)
CALL catalog_name.system.cherrypick_snapshot(snapshot_id => 1, table => 'my_table' )
fast_forward
将一个分支的当前快照快进到另一个分支的最新快照。
CALL catalog_name.system.fast_forward('my_table', 'main', 'audit-branch')
许多维护操作可以使用 Iceberg 存储过程来执行。
过期快照
Iceberg 中的每次写入/更新/删除/更新插入/压缩都会生成一个新快照,同时保留旧数据和元数据以进行快照隔离和时间旅行。 expire_snapshots 过程可用于删除不再需要的旧快照及其文件。
此过程将删除旧快照以及这些旧快照唯一需要的数据文件。这意味着expire_snapshots过程永远不会删除未过期快照仍然需要的文件。
参数名称 | Required | Type | 描述 |
---|---|---|---|
table | ✔️ | string | 要更新的表的名称 |
older_than | timestamp | 删除快照之前的时间戳(默认:5 天前) | |
retain_last | int | 无论old_than如何,要保留的祖先快照数量(默认为1) | |
max_concurrent_deletes | int | 用于删除文件操作的线程池的大小(默认情况下,不使用线程池) | |
stream_results | boolean | 当为true时,删除文件将通过RDD分区发送到Spark驱动程序(默认情况下,所有文件将发送到Spark驱动程序)。建议将此选项设置为 true,以防止 Spark 驱动程序因文件大小而导致 OOM | |
snapshot_ids | array of long | 即将过期的快照 ID 数组。 |
如果省略old_than和retain_last,则将使用表的过期属性。仍被分支或标签引用的快照将不会被删除。默认情况下,分支和标签永远不会过期,但可以使用表属性history.expire.max-ref-age-ms更改它们的保留策略。主分支永远不会过期。
输出名称 | 类型 | 描述 |
---|---|---|
deleted_data_files_count | long | 该操作删除的数据文件数量 |
deleted_position_delete_files_count | long | 本次操作删除的位置删除文件数量 |
deleted_equality_delete_files_count | long | 本次操作删除的等式删除文件数量 |
deleted_manifest_files_count | long | 此操作删除的清单文件数 |
deleted_manifest_lists_count | long | 此操作删除的清单列表文件数 |
删除早于特定日期和时间的快照,但保留最后 100 个快照:
CALL hive_prod.system.expire_snapshots('db.sample', TIMESTAMP '2021-06-30 00:00:00.000', 100)
删除快照 ID 为 123 的快照(注意该快照 ID 不应该是当前快照):
CALL hive_prod.system.expire_snapshots(table => 'db.sample', snapshot_ids => ARRAY(123))
删除孤立文件
用于删除 Iceberg 表的任何元数据文件中未引用的文件,因此可以被视为“孤立”文件。
通过在此表上执行remove_orphan_files 命令的试运行而不实际删除它们,列出所有要删除的候选文件:
CALL catalog_name.system.remove_orphan_files(table => 'db.sample', dry_run => true)
删除 tablelocation/data 文件夹中表 db.sample 未知的所有文件。
CALL catalog_name.system.remove_orphan_files(table => 'db.sample', location => 'tablelocation/data')
重写数据文件
Iceberg 跟踪表中的每个数据文件。更多的数据文件会导致更多的元数据存储在清单文件中,而小数据文件会导致不必要的元数据量和文件打开成本的低效查询。
Iceberg 可以使用 Spark 和 rewriteDataFiles 操作并行压缩数据文件。这会将小文件组合成较大的文件,以减少元数据开销和运行时文件打开成本。
参数名称 | Required | Type | 描述 |
---|---|---|---|
table | ✔️ | string | 要更新的表的名称 |
strategy | string | 策略的名称 - binpack 或 sort。默认为 binpack 策略 | |
sort_order | string | 对于 Zorder,请在 zorder() 中使用逗号分隔的列列表。 (Spark 3.2 及以上版本支持)示例:zorder(c1,c2,c3)。否则,以逗号分隔排序顺序,格式为 (ColumnName SortDirection NullOrder)。其中 SortDirection 可以是 ASC 或 DESC。 NullOrder 可以是 NULLS FIRST 或 NULLS LAST。默认为表的排序顺序 | |
options | map |
用于操作的选项 | |
where | string | 谓词作为用于过滤文件的字符串。请注意,所有可能包含与过滤器匹配的数据的文件都将被选择进行重写 |
常规选项
名称 | 默认值 | 描述 |
---|---|---|
max-concurrent-file-group-rewrites | 5 | 同时重写的最大文件组数 |
partial-progress.enabled | false | 启用在整个重写完成之前提交文件组 |
partial-progress.max-commits | 10 | 如果启用部分进度,则允许此重写产生的最大提交量 |
use-starting-sequence-number | true | 使用压缩开始时快照的序列号,而不是新生成的快照的序列号 |
rewrite-job-order | none | 根据该值强制重写作业顺序。如果 rewrite-job-order=bytes-asc,则先重写最小的作业组。如果 rewrite-job-order=bytes-desc,则先重写最大的作业组。如果 rewrite-job-order=files-asc,则首先重写文件最少的作业组。如果 rewrite-job-order=files-desc,则首先重写文件最多的作业组。如果 rewrite-job-order=none,则按照它们的顺序重写作业组已计划(无特定顺序)。 |
target-file-size-bytes | 536870912(512 MB,表属性中 write.target-file-size-bytes 的默认值) | 目标输出文件大小 |
min-file-size-bytes | 目标文件大小的 75% | 无论任何其他标准如何,低于此阈值的文件都将被考虑重写 |
max-file-size-bytes | 目标文件大小的 180% | 无论任何其他条件如何,大小高于此阈值的文件都将被考虑重写 |
min-input-files | 5 | 无论其他条件如何,超过此文件数量的任何文件组都将被重写 |
rewrite-all | false | 强制重写所有提供的文件,覆盖其他选项 |
max-file-group-size-bytes | 107374182400 (100GB) | 单个文件组中应重写的最大数据量。整个重写操作根据分区被分解为多个部分,并根据文件组的大小在分区内分解。这有助于分解非常大的分区的重写,否则由于集群的资源限制,这些分区可能无法重写。 |
delete-file-threshold | 2147483647 | 需要与数据文件关联才能考虑重写的最小删除次数 |
排序策略选项
名称 | 默认值 | 描述 |
---|---|---|
compression-factor | 1.0 | Shuffle 分区的数量以及 Spark 排序创建的输出文件的数量取决于此文件重写器中使用的输入数据文件的大小。由于压缩,磁盘文件大小可能无法准确表示输出中文件的大小。此参数允许用户调整用于估计实际输出数据大小的文件大小。大于 1.0 的系数将生成比我们根据磁盘文件大小预期的更多的文件。小于 1.0 的值将创建比我们基于磁盘大小预期的文件少的文件。 |
shuffle-partitions-per-file | 1 | 用于每个输出文件的随机分区数。 Iceberg 将使用自定义合并操作将这些已排序的分区重新拼接成单个已排序的文件。 |
使用 zorder sort_order 的排序策略选项
名称 | 默认值 | 描述 |
---|---|---|
var-length-contribution | 8 | 从可变长度类型的输入列考虑的字节数(字符串、二进制) |
max-output-size | 2147483647 | ZOrder 算法中交织的字节数 |
Output
名称 | 默认值 | 描述 |
---|---|---|
rewritten_data_files_count | int | 通过该命令重写的数据数 |
added_data_files_count | int | 此命令写入的新数据文件的数量 |
rewritten_bytes_count | long | 该命令写入的字节数 |
failed_data_files_count | int | partial-progress.enabled为true时重写失败的数据文件数量 |
例子
使用默认的bin-packing重写算法重写表db.sample中的数据文件,合并小文件,同时根据表的默认写入大小拆分大文件。
CALL catalog_name.system.rewrite_data_files('db.sample')
通过使用与 bin-pack 相同的默认值对 id 和 name 上的所有数据进行排序来重写表 db.sample 中的数据文件,以确定要重写的文件。
CALL catalog_name.system.rewrite_data_files(table => 'db.sample', strategy => 'sort', sort_order => 'id DESC NULLS LAST,name ASC NULLS FIRST')
通过 zOrdering 在 c1 和 c2 列上重写表 db.sample 中的数据文件。使用与 bin-pack 相同的默认值来确定要重写哪些文件。
CALL catalog_name.system.rewrite_data_files(table => 'db.sample', strategy => 'sort', sort_order => 'zorder(c1,c2)')
在任何需要重写的文件超过 2 个或更多的分区中,使用 bin-pack 策略重写表 db.sample 中的数据文件。
CALL catalog_name.system.rewrite_data_files(table => 'db.sample', options => map('min-input-files','2'))
重写表db.sample中的数据文件,并选择可能包含与过滤器(id = 3且name =“foo”)匹配的数据的文件进行重写。
CALL catalog_name.system.rewrite_data_files(table => 'db.sample', where => 'id = 3 and name = "foo"')
重写清单
重写表的清单以优化扫描计划。
清单中的数据文件按分区规范中的字段排序。此过程使用 Spark 作业并行运行。
参数说明 | Required | Type | 说明 |
---|---|---|---|
table | ✔️ | string | 要更新的表的名称 |
use_caching | boolean | 运行期间使用Spark缓存(默认为true) |
输出
参数说明 | Type | 说明 |
---|---|---|
rewritten_manifests_count | int | 由该命令重写的清单数量 |
added_mainfests_count | int | 此命令写入的新清单文件的数量 |
重写表 db.sample 中的清单,并将清单文件与表分区对齐。
CALL catalog_name.system.rewrite_manifests('db.sample')
重写表 db.sample 中的清单并禁用 Spark 缓存。这样做可以避免执行器上的内存问题。
CALL catalog_name.system.rewrite_manifests('db.sample', false)
重写位置删除文件
Iceberg可以重写位置删除文件,这有两个目的:
参数说明 | Required | Type | 说明 |
---|---|---|---|
table | ✔️ | string | 要更新的表的名称 |
options | map |
程序使用的选项 |
重写期间,悬空删除始终会被过滤掉。
名称 | 默认值 | 描述 |
---|---|---|
max-concurrent-file-group-rewrites | 5 | 同时重写的最大文件组数 |
partial-progress.enabled | false | 启用在整个重写完成之前提交文件组 |
partial-progress.max-commits | 10 | 如果启用部分进度,则允许此重写产生的最大提交量 |
rewrite-job-order | none | 根据该值强制重写作业顺序。如果 rewrite-job-order=bytes-asc,则先重写最小的作业组。如果 rewrite-job-order=bytes-desc,则先重写最大的作业组。如果 rewrite-job-order=files-asc,则首先重写文件最少的作业组。如果 rewrite-job-order=files-desc,则首先重写文件最多的作业组。如果 rewrite-job-order=none,则按照它们的顺序重写作业组已计划(无特定顺序)。 |
target-file-size-bytes | 67108864(64MB,表属性中 write.delete.target-file-size-bytes 的默认值) | 目标输出文件大小 |
min-file-size-bytes | 目标文件大小的 75% | 无论任何其他标准如何,低于此阈值的文件都将被考虑重写 |
max-file-size-bytes | 目标文件大小的 180% | 无论任何其他条件如何,大小高于此阈值的文件都将被考虑重写 |
min-input-files | 5 | 无论其他条件如何,超过此文件数量的任何文件组都将被重写 |
rewrite-all | false | 强制重写所有提供的文件,覆盖其他选项 |
max-file-group-size-bytes | 107374182400 (100GB) | 单个文件组中应重写的最大数据量。整个重写操作根据分区被分解为多个部分,并根据文件组的大小在分区内分解。这有助于分解非常大的分区的重写,否则由于集群的资源限制,这些分区可能无法重写。 |
Output
输出名称 | Type | 描述 |
---|---|---|
rewritten_delete_files_count | int | 通过此命令删除的删除文件数 |
added_delete_files_count | int | 通过此命令添加的删除文件数 |
rewritten_bytes_count | long | 通过此命令删除的删除文件的字节数 |
added_bytes_count | long | 通过此命令添加的所有新删除文件的字节数 |
重写位置删除表db.sample中的文件。这会选择符合默认重写标准的位置删除文件,并写入目标大小 target-file-size-bytes 的新文件。悬空删除将从重写的删除文件中删除。
CALL catalog_name.system.rewrite_position_delete_files('db.sample')
重写表 db.sample 中的所有位置删除文件,写入新文件 target-file-size-bytes。悬空删除将从重写的删除文件中删除。
CALL catalog_name.system.rewrite_position_delete_files(table => 'db.sample', options => map('rewrite-all', 'true'))
重写位置删除表db.sample中的文件。这会选择分区中的位置删除文件,其中需要根据大小标准重写 2 个或更多位置删除文件。悬空删除将从重写的删除文件中删除。
CALL catalog_name.system.rewrite_position_delete_files(table => 'db.sample', options => map('min-input-files','2'))
migrate
将表替换为加载了源数据文件的 Iceberg 表。
表架构、分区、属性和位置将从源表复制。
如果任何表分区使用不支持的格式,迁移将会失败。支持的格式有 Avro、Parquet 和 ORC。现有数据文件被添加到 Iceberg 表的元数据中,并且可以使用从原始表架构创建的名称到 ID 映射来读取。
要在测试时保持原始表完整,请使用快照创建共享源数据文件和架构的新临时表。
默认情况下,原始表保留为名称 table_BACKUP_。
参数说明 | Required | Type | 说明 |
---|---|---|---|
table | ✔️ | string | 要迁移的表的名称 |
properties | map |
新 Iceberg 表的属性 | |
drop_backup | boolean | 当 true 时,原始表将不会保留作为备份(默认为 false) | |
backup_table_name | string | 将保留作为备份的表的名称(默认为 table_BACKUP_) |
输出:
输出名称 | Type | 描述 |
---|---|---|
migrated_files_count | long | 附加到 Iceberg 表的文件数 |
例子
将 Spark 默认目录中的表 db.sample 迁移到 Iceberg 表,并添加属性“foo”设置为“bar”:
CALL catalog_name.system.migrate('spark_catalog.db.sample', map('foo', 'bar'))
将当前目录中的 db.sample 迁移到 Iceberg 表,而不添加任何其他属性:
CALL catalog_name.system.migrate('db.sample')
add_files
尝试直接将文件从 Hive 或基于文件的表添加到给定的 Iceberg 表中。与 migrate 或 snapshot 不同,add_files 可以从一个或多个特定分区导入文件,并且不会创建新的 Iceberg 表。此命令将为新文件创建元数据,但不会移动它们。此过程不会分析文件的架构来确定它们是否确实与 Iceberg 表的架构匹配。完成后,Iceberg 表将把这些文件视为 Iceberg 拥有的文件集的一部分。这意味着任何后续的 expire_snapshot 调用都将能够物理删除添加的文件。如果可以进行迁移或快照,则不应使用此方法。
请记住,add_files 过程将从仅添加一次的每个文件中获取 Parquet 元数据。如果您使用分层存储(例如 Amazon S3 智能分层存储类),将从存档中检索底层文件,并将在设定的时间段内保留在较高层上。
register_table
为已存在但没有相应目录标识符的metadata.json 文件创建目录条目。
将新表注册为 db.tbl 到spark_catalog,指向metadata.json文件路径/to/metadata/file.json。
CALL spark_catalog.system.register_table(
table => 'db.tbl',
metadata_file => 'path/to/metadata/file.json'
)
元数据信息
ancestors_of
报告指定快照的父级实时快照ID
获取当前快照的所有快照祖先(默认)
CALL spark_catalog.system.ancestors_of('db.tbl')
获取特定快照的所有快照祖先
CALL spark_catalog.system.ancestors_of('db.tbl', 1)
CALL spark_catalog.system.ancestors_of(snapshot_id => 1, table => 'db.tbl')
Change Data Capture
创建变更日志视图
创建一个包含给定表中的更改的视图。
参数名称 | Required | Type | 说明 |
---|---|---|---|
table | ✔️ | string | 变更日志的源表的名称 |
changelog_view | string | 要创建的视图的名称 | |
options | map |
要使用的 Spark 读取选项图 | |
net_changes | boolean | 是否输出净变化(更多信息见下文)。默认为 false。 | |
compute_updates | boolean | 是否计算更新前/更新后图像(有关详细信息,请参阅下文)。默认为 false。 | |
identifier_columns | array | 用于计算更新的标识符列的列表。如果参数compute_updates设置为true并且未提供identifier_columns,则将使用表的当前标识符字段。 | |
remove_carryovers | boolean | 是否删除结转行(有关详细信息,请参阅下文)。默认为 true。自 1.4.0 起已弃用,将在 1.5.0 中删除;请查询 SparkChangelogTable 以查看结转行 |
以下是常用的 Spark 读取选项列表:
输出:
输出名称 | Type | 描述 |
---|---|---|
changelog_view | string | 创建的变更日志视图的名称 |
根据快照 1(不包括)和快照 2(包括)之间发生的更改创建变更日志视图 tbl_changes。
CALL spark_catalog.system.create_changelog_view(
table => 'db.tbl',
options => map('start-snapshot-id','1','end-snapshot-id', '2')
)
根据时间戳 1678335750489(不包括)和 1678992105265(包括)之间发生的更改创建变更日志视图 my_changelog_view。
CALL spark_catalog.system.create_changelog_view(
table => 'db.tbl',
options => map('start-timestamp','1678335750489','end-timestamp', '1678992105265'),
changelog_view => 'my_changelog_view'
)
创建一个更改日志视图,根据标识符列 id 和 name 计算更新。
CALL spark_catalog.system.create_changelog_view(
table => 'db.tbl',
options => map('start-snapshot-id','1','end-snapshot-id', '2'),
identifier_columns => array('id', 'name')
)
创建变更日志视图后,您可以查询该视图以查看快照之间发生的更改。
SELECT * FROM tbl_changes
SELECT * FROM tbl_changes where _change_type = 'INSERT' AND id = 3 ORDER BY _change_ordinal
请注意,更改日志视图包括更改数据捕获 (CDC) 元数据列,这些列提供有关正在跟踪的更改的附加信息。这些列是:
这是相应结果的示例。显示第一个快照插入了2条记录,第二个快照删除了1条记录。
创建计算净更改的变更日志视图。它删除中间更改并仅输出净更改。
CALL spark_catalog.system.create_changelog_view(
table => 'db.tbl',
options => map('end-snapshot-id', '87647489814522183702'),
net_changes => true
)
对于净更改,上述更改日志视图仅包含以下行,因为 Alice 被插入到第一个快照中并在第二个快照中被删除。
Carry-over Rows
该过程默认删除结转行。结转行是使用写时复制时行级操作(MERGE、UPDATE 和 DELETE)的结果。例如,给定一个包含 row1 (id=1, name=‘Alice’) 和 row2 (id=2, name=‘Bob’) 的文件。对 row2 进行写时复制删除需要擦除该文件并将 row1 保留在新文件中。更改日志表将其报告为以下两行,尽管这不是对该表的实际更改。
要查看结转行,请按如下方式查询 SparkChangelogTable:
SELECT * FROM spark_catalog.db.tbl.changes
更新前/后图像
该过程计算更新前/更新后图像(如果已配置)。更新前/更新后图像是从一对删除行和插入行转换而来的。标识符列用于确定插入和删除记录是否引用同一行。如果两条记录共享相同的标识列值,则它们被视为同一行的之前和之后状态。您可以在表模式中设置标识符字段,也可以将它们作为过程参数输入。
以下示例显示了使用标识符列 (id) 进行更新前/更新后图像计算,其中具有相同 id 的行删除和插入被视为单个更新操作。具体来说,假设我们有以下两行:
在这种情况下,该过程将更新之前的行标记为 UPDATE_BEFORE 图像,将更新之后的行标记为 UPDATE_AFTER 图像,从而产生以下更新前/更新后图像: