DB2-Db2StreamingChangeEventSource

提示:Db2StreamingChangeEventSource 类主要用于从 IBM Db2 数据库中读取变更数据捕获 (CDC, Change Data Capture) 信息。CDC 是一种技术,允许系统跟踪数据库表中数据的更改,这些更改可以是插入、更新或删除操作。在大数据和实时数据处理场景中,CDC 可以用来同步数据到其他系统,比如数据仓库、数据湖或者流处理平台如 Apache Kafka。

文章目录

  • 前言
  • 一、核心功能
  • 二、代码分析
  • 总结


前言

提示:Db2StreamingChangeEventSource 类的核心功能主要集中在实时地从 IBM Db2 数据库中捕捉和流式传输变更数据。


提示:以下是本篇文章正文内容

一、核心功能

核心功能详细说明

1. 实时变更数据捕获

  • 目标: Db2StreamingChangeEventSource 的主要目标是从 Db2 数据库中实时捕捉任何数据表的变更,包括插入、更新和删除操作。
  • 原理: 当在 Db2 数据库中启用 CDC 功能后,每次数据表中的数据发生变化时,Db2 都会在专门的 CDC 表中记录这些变更。Db2StreamingChangeEventSource 就是通过读取这些 CDC 表来获取变更数据的。
  • 实时性: 这一过程是实时的,意味着一旦数据发生变化,Db2StreamingChangeEventSource 就能立即捕捉到这些变化,从而保证数据处理的时效性。

2. 流式数据处理与事件生成

  • 流式处理: 捕捉到的变更数据不是简单地存储起来,而是被转化为事件流。这些事件可以被实时处理系统(如 Apache Kafka、Apache Flink 等)消费,进行进一步的处理或分析。
  • 事件化: 每次数据变更都会生成一个事件,事件中包含了变更的具体信息,如变更类型(插入、更新、删除)、变更的时间戳、变更前后的数据等。

3. 错误恢复与容错机制

  • 错误处理: 在读取和处理变更数据的过程中,可能会遇到各种错误,如 CDC 函数缺失、SQL 查询失败等。Db2StreamingChangeEventSource 内置了错误处理逻辑,能够识别并处理这些错误,防止整个数据流处理流程因个别错误而中断。
  • 容错机制: 即便在出现错误的情况下,系统也能够从错误中恢复,继续处理后续的变更数据,确保数据流的连续性和系统的稳定性。

4. 偏移量上下文与状态追踪

  • 偏移量上下文: 为了确保数据处理的准确性和一致性,Db2StreamingChangeEventSource 维护了一个偏移量上下文,记录了已经处理过的数据位置。这样,在系统重启或故障恢复后,可以从最后一次处理的位置继续,避免数据的重复处理或遗漏。
  • 状态追踪: 通过偏移量上下文,系统能够追踪数据处理的状态,保证数据处理的完整性。

5. 性能优化与资源管理

  • Metronome 控制: 为了避免频繁查询数据库导致的资源浪费,Db2StreamingChangeEventSource 使用 Metronome 控制查询的频率,确保既不会过度查询,又能及时捕捉变更。
  • 资源管理: 通过合理安排查询频率和错误恢复策略,系统能够在保证数据处理效率的同时,有效管理资源,避免不必要的负载。

6. 模式变更适应

  • 动态适应: 数据库表结构可能随时间变化,Db2StreamingChangeEventSource 具备检测和适应这些变化的能力,确保即使在表结构变更后,仍能正确读取和处理变更数据。

通过上述核心功能,Db2StreamingChangeEventSource 不仅能够实现实时的数据变更捕捉,还能确保数据处理的准确性、连续性和高效性,非常适合于需要实时数据同步、流数据分析和实时数据处理的应用场景。

二、代码分析

/**
 * 当数据库表结构更新时,数据库操作员应创建额外的捕获进程(及表)。此代码检测单个源表存在两个变更表的情况,
 * 根据存储在表中的LSN(日志序列号)来决定哪个是新表。循环从旧表流式传输变更直到新表中存在具有大于旧表LSN的事件。
 * 随后切换变更表,并从新的表执行流式传输。
 */

/**
 * 实现了DB2数据库使用CDC(变更数据捕获)的变更事件源。
 * 本类负责从配置了CDC的DB2表获取变更,并将这些变更作为事件分发以供处理。
 */
public class Db2StreamingChangeEventSource implements StreamingChangeEventSource {

       // 定义提交操作的LSN(日志序列号)列索引,用于追踪数据变更位置
    private static final int COL_COMMIT_LSN = 2;
    
    // 定义行操作的LSN列索引,用于追踪数据变更位置
    private static final int COL_ROW_LSN = 3;
    
    // 定义操作类型列索引,指示数据库操作类型(如插入、更新、删除)
    private static final int COL_OPERATION = 1;
    
    // 定义数据列索引,包含实际的数据变更
    private static final int COL_DATA = 5;

    // 编译正则表达式,用于匹配CDC函数变化错误
    private static final Pattern MISSING_CDC_FUNCTION_CHANGES_ERROR = Pattern.compile("Invalid object name 'cdc.fn_cdc_get_all_changes_(.*)'\\.");
    
    // 日志记录器
    private static final Logger LOGGER = LoggerFactory.getLogger(Db2StreamingChangeEventSource.class);

    /**
     * 用于读取CDC表的连接。
     */
    private final Db2Connection dataConnection;

    /**
     * 用于检索时间戳的独立连接;没有它,自适应缓冲将无法工作。
     */
    private final Db2Connection metadataConnection;

    // 事件分发器
    private final EventDispatcher dispatcher;
    
    // 错误处理器
    private final ErrorHandler errorHandler;
    
    // 时钟服务
    private final Clock clock;
    
    // 数据库模式
    private final Db2DatabaseSchema schema;
    
    // 轮询间隔
    private final Duration pollInterval;
    
    // 连接器配置
    private final Db2ConnectorConfig connectorConfig;
    
    // 当前有效的偏移量上下文
    private Db2OffsetContext effectiveOffsetContext;

    // 快照服务
    private final SnapshotterService snapshotterService;

    /**
     * 构造Db2StreamingChangeEventSource对象。
     * 
     * @param connectorConfig 连接器配置信息
     * @param dataConnection 用于读取CDC表的数据库连接
     * @param metadataConnection 用于检索时间戳的数据库连接
     * @param dispatcher 事件分发器
     * @param errorHandler 错误处理器
     * @param clock 时钟服务
     * @param schema 数据库模式
     * @param snapshotterService 快照服务
     */
    public Db2StreamingChangeEventSource(Db2ConnectorConfig connectorConfig, Db2Connection dataConnection,
                                         Db2Connection metadataConnection,
                                         EventDispatcher dispatcher, ErrorHandler errorHandler,
                                         Clock clock, Db2DatabaseSchema schema, SnapshotterService snapshotterService) {
        this.connectorConfig = connectorConfig;
        this.dataConnection = dataConnection;
        this.metadataConnection = metadataConnection;
        this.dispatcher = dispatcher;
        this.errorHandler = errorHandler;
        this.clock = clock;
        this.schema = schema;
        this.pollInterval = connectorConfig.getPollInterval();
        this.snapshotterService = snapshotterService;
    } /**
 * 初始化Db2OffsetContext。
 * 
 * 此方法用于在任务启动或恢复时初始化offset上下文。它确保了即使传入的offsetContext为null,
 * 也能通过提供默认参数创建一个新的Db2OffsetContext,从而保证后续处理的正确性。
 * 
 * @param offsetContext 初始化用的offset上下文,如果为null,则使用默认参数创建一个新的上下文。
 */
public void init(Db2OffsetContext offsetContext) {

    // 判断传入的offsetContext是否为null,如果不为null,则直接使用传入的实例;
    // 如果为null,则使用默认参数创建一个新的Db2OffsetContext实例。
    this.effectiveOffsetContext = offsetContext != null
            ? offsetContext
            : new Db2OffsetContext(connectorConfig, TxLogPosition.NULL, false, false);
}   

    /**
     * 执行DB2数据库的变更数据捕获(CDC)流程。
     * 此方法负责轮询数据库以获取变更、处理这些变更,
     * 并更新偏移量上下文以追踪处理位置。
     * 
     * @param context 变更事件源的上下文,用于检查执行是否应继续进行或暂停
     * @param partition 数据库分区信息,用于确定要查询的表
     * @param offsetContext 偏移量上下文,用于跟踪当前的处理位置和事务序列号
     */
    @Override
    public void execute(ChangeEventSourceContext context, Db2Partition partition, Db2OffsetContext offsetContext)
            throws InterruptedException {
        
        // 创建一个定时器,用于控制轮询间隔
        final Metronome metronome = Metronome.sleeper(pollInterval, clock);
        // 创建一个优先队列,用于存储需要迁移的表变更信息
        final Queue schemaChangeCheckpoints = new PriorityQueue<>((x, y) -> x.getStopLsn().compareTo(y.getStopLsn()));
        
        try {
            // 创建一个原子引用,用于存储要查询的CDC表数组
            final AtomicReference tablesSlot = new AtomicReference<>(getCdcTablesToQuery(partition, offsetContext));
            
            // 获取启动时记录在offset中的最后位置和序列号
            final TxLogPosition lastProcessedPositionOnStart = offsetContext.getChangePosition();
            final long lastProcessedEventSerialNoOnStart = offsetContext.getEventSerialNo();
            LOGGER.info("启动时记录在offset中的最后位置是 {}[{}]", lastProcessedPositionOnStart, lastProcessedEventSerialNoOnStart);
            
            // 初始化最后处理的位置
            TxLogPosition lastProcessedPosition = lastProcessedPositionOnStart;
            
            // 标记是否应立即增加LSN,仅在快照完成后首次运行时有效
            boolean shouldIncreaseFromLsn = offsetContext.isSnapshotCompleted();
            
            // 当执行上下文指示任务仍在运行时,持续执行循环
            while (context.isRunning()) {
                // 获取数据库中的最大LSN
                final Lsn currentMaxLsn = dataConnection.getMaxLsn();
                
                // 检查数据库中是否有最大LSN,如果没有则警告并暂停执行
                if (!currentMaxLsn.isAvailable()) {
                    LOGGER.warn("数据库中没有找到最大LSN;请确保DB2代理正在运行");
                    metronome.pause();
                    continue;
                }
                
                // 如果数据库中没有变化且需要增加LSN,则记录无变化并暂停执行
                if (currentMaxLsn.equals(lastProcessedPosition.getCommitLsn()) && shouldIncreaseFromLsn) {
                    LOGGER.debug("数据库中没有变化");
                    metronome.pause();
                    continue;
                }
                
                // 计算从哪个LSN开始读取,如果需要增加LSN则向前移动,但首次运行除外
                final Lsn fromLsn = lastProcessedPosition.getCommitLsn().isAvailable() && shouldIncreaseFromLsn
                        ? dataConnection.incrementLsn(lastProcessedPosition.getCommitLsn())
                        : lastProcessedPosition.getCommitLsn();
                shouldIncreaseFromLsn = true;
                
                // 清空所有待迁移的表变更信息
                while (!schemaChangeCheckpoints.isEmpty()) {
                    migrateTable(partition, offsetContext, schemaChangeCheckpoints);
                }
                
                // 如果有新的变更表,则更新要查询的CDC表数组,并将新表添加到优先队列中
                if (!dataConnection.listOfNewChangeTables(fromLsn, currentMaxLsn).isEmpty()) {
                    final Db2ChangeTable[] tables = getCdcTablesToQuery(partition, offsetContext);
                    tablesSlot.set(tables);
                    for (Db2ChangeTable table : tables) {
                        if (table.getStartLsn().isBetween(fromLsn, currentMaxLsn.increment())) {
                            LOGGER.info("表结构将发生变更:{}", table);
                            schemaChangeCheckpoints.add(table);
                        }
                    }
                }
                
                // 获取指定范围内的表变更,并处理这些变更
                try {
                    dataConnection.getChangesForTables(tablesSlot.get(), fromLsn, currentMaxLsn, resultSets -> {
                        // 处理逻辑...
                    });
                    
                    // 更新最后处理的位置
                    lastProcessedPosition = TxLogPosition.valueOf(currentMaxLsn);
                    
                    // 终止事务,否则无法禁用表的CDC功能
                    dataConnection.rollback();
                } catch (SQLException e) {
                    // 处理SQL异常,重新设置要查询的表数组
                    tablesSlot.set(processErrorFromChangeTableQuery(e, tablesSlot.get()));
                }
                
                // 如果执行上下文指示应暂停,则暂停并等待快照完成
                if (context.isPaused()) {
                    LOGGER.info("流式处理现在将暂停");
                    context.streamingPaused();
                    context.waitSnapshotCompletion();
                    LOGGER.info("流式处理已恢复");
                }
            }
        } catch (Exception e) {
            // 设置错误处理器的异常
            errorHandler.setProducerThrowable(e);
        }
    }
    /**
     * 迁移表结构到新的分区。
     * 此方法负责从队列中获取下一个待迁移的表结构信息,然后使用这些信息来更新表的结构。
     * 这是处理数据库表结构变更的核心逻辑,它确保了数据迁移过程中表结构的一致性。
     *
     * @param partition 当前的分区信息,用于标识数据所在的分区。
     * @param offsetContext 用于存储和管理消费 offsets 的上下文信息。
     * @param schemaChangeCheckpoints 表结构变更检查点的队列,包含待迁移的表结构信息。
     * @throws InterruptedException 如果线程被中断。
     * @throws SQLException 如果在操作数据库时发生错误。
     */
    private void migrateTable(Db2Partition partition, Db2OffsetContext offsetContext,
                              final Queue schemaChangeCheckpoints)
            throws InterruptedException, SQLException {
        // 从队列中获取下一个待处理的表结构变更信息
        final Db2ChangeTable newTable = schemaChangeCheckpoints.poll();
        // 日志记录当前正在迁移的表结构
        LOGGER.info("Migrating schema to {}", newTable);
        // 从元数据连接中获取新表的结构
        Table tableSchema = metadataConnection.getTableSchemaFromTable(newTable);
        // 更新offset信息,记录当前表结构变更的时间点
        offsetContext.event(newTable.getSourceTableId(), Instant.now());
        // 发送表结构变更事件,用于进一步处理和通知
        dispatcher.dispatchSchemaChangeEvent(partition, offsetContext, newTable.getSourceTableId(),
                new Db2SchemaChangeEventEmitter(partition, offsetContext, newTable, tableSchema, schema,
                        SchemaChangeEventType.ALTER));
        // 更新表结构信息,用于后续操作
        newTable.setSourceTable(tableSchema);
    }    /**
     * 处理从变更表查询中获取的错误。
     * 当遇到特定的CDC功能变化错误时,该方法将从当前变更表列表中移除不再被捕捉的表。
     * 
     * @param exception 查询变更表时发生的SQLException。
     * @param currentChangeTables 当前的变更表数组。
     * @return 如果匹配到特定错误,则返回经过过滤后的变更表数组;否则,重新抛出异常。
     * @throws Exception 如果没有匹配的错误,或者在处理过程中发生其他错误,则抛出异常。
     */
    private Db2ChangeTable[] processErrorFromChangeTableQuery(SQLException exception, Db2ChangeTable[] currentChangeTables) throws Exception {
        // 使用预定义的正则表达式匹配SQL异常消息,以判断是否是特定的CDC功能变化错误。
        final Matcher m = MISSING_CDC_FUNCTION_CHANGES_ERROR.matcher(exception.getMessage());
        if (m.matches()) {
            // 如果匹配成功,提取错误消息中捕获实例的名称。
            final String captureName = m.group(1);
            // 记录日志,说明哪个捕获实例不再被捕捉。
            LOGGER.info("Table is no longer captured with capture instance {}", captureName);
            // 过滤掉与错误消息中捕获实例名称匹配的变更表,返回过滤后的变更表数组。
            return Arrays.asList(currentChangeTables).stream()
                    .filter(x -> !x.getCaptureInstance().equals(captureName))
                    .collect(Collectors.toList()).toArray(new Db2ChangeTable[0]);
        }
        // 如果没有匹配的错误,重新抛出原始异常。
        throw exception;
    }    /**
     * 获取需要查询的CDC表。
     * 
     * 此方法旨在从数据库中筛选出开启了CDC(Change Data Capture)功能的表,并进一步筛选出符合连接器配置的表。
     * 如果表有多个捕获实例(capture instance),则会选择最新的实例。
     * 对于新监测到的表,会触发架构变更事件以获取表的架构信息。
     * 
     * @param partition 分区信息,用于数据库查询。
     * @param offsetContext 偏移上下文,用于存储和管理偏移信息。
     * @return Db2ChangeTable数组,包含所有需要查询的CDC表。
     * @throws SQLException 如果数据库查询发生错误。
     * @throws InterruptedException 如果线程被中断。
     */
    private Db2ChangeTable[] getCdcTablesToQuery(Db2Partition partition, Db2OffsetContext offsetContext)
            throws SQLException, InterruptedException {
        // 获取所有开启了CDC的表
        final Set cdcEnabledTables = dataConnection.listOfChangeTables();

        // 如果没有开启CDC的表,记录警告日志
        if (cdcEnabledTables.isEmpty()) {
            LOGGER.warn("No table has enabled CDC or security constraints prevents getting the list of change tables");
        }

        // 筛选符合连接器配置的表,并按表名分组
        final Map> includedAndCdcEnabledTables = cdcEnabledTables.stream()
                .filter(changeTable -> {
                    // 如果表符合包括条件,则保留
                    if (connectorConfig.getTableFilters().dataCollectionFilter().isIncluded(changeTable.getSourceTableId())) {
                        return true;
                    }
                    // 否则记录信息日志并排除
                    else {
                        LOGGER.info("CDC is enabled for table {} but the table is not included by connector", changeTable);
                        return false;
                    }
                })
                .collect(Collectors.groupingBy(x -> x.getSourceTableId()));

        // 如果没有符合要求的表,记录警告日志
        if (includedAndCdcEnabledTables.isEmpty()) {
            LOGGER.warn(DatabaseSchema.NO_CAPTURED_DATA_COLLECTIONS_WARNING);
        }

        // 初始化存储最终结果的列表
        final List tables = new ArrayList<>();
        // 遍历每个表的捕获实例
        for (List captures : includedAndCdcEnabledTables.values()) {
            Db2ChangeTable currentTable = captures.get(0);
            // 如果有多个捕获实例,选择LSN(Log Sequence Number)较大的作为当前实例,较小的作为未来实例
            if (captures.size() > 1) {
                Db2ChangeTable futureTable;
                if (captures.get(0).getStartLsn().compareTo(captures.get(1).getStartLsn()) < 0) {
                    futureTable = captures.get(1);
                }
                else {
                    currentTable = captures.get(1);
                    futureTable = captures.get(0);
                }
                // 设置当前实例的停止LSN为未来实例的开始LSN
                currentTable.setStopLsn(futureTable.getStartLsn());
                // 将未来实例添加到结果列表
                tables.add(futureTable);
                // 记录信息日志
                LOGGER.info("Multiple capture instances present for the same table: {} and {}", currentTable, futureTable);
            }
            // 如果当前表的架构在schema中不存在,触发架构变更事件并添加到结果列表
            if (schema.tableFor(currentTable.getSourceTableId()) == null) {
                LOGGER.info("Table {} is new to be monitored by capture instance {}", currentTable.getSourceTableId(), currentTable.getCaptureInstance());
                // 更新偏移信息
                offsetContext.event(currentTable.getSourceTableId(), Instant.now());
                // 触发架构变更事件
                dispatcher.dispatchSchemaChangeEvent(
                        partition,
                        offsetContext,
                        currentTable.getSourceTableId(),
                        new Db2SchemaChangeEventEmitter(
                                partition,
                                offsetContext,
                                currentTable,
                                dataConnection.getTableSchemaFromTable(currentTable),
                                schema,
                                SchemaChangeEventType.CREATE));
            }
            // 将当前实例添加到结果列表
            tables.add(currentTable);
        }

        // 将结果转换为数组并返回
        return tables.toArray(new Db2ChangeTable[tables.size()]);
    }    /**
     * 交易日志中变更位置的逻辑表示。
     * 在每次数据源循环中,需要查询所有变更表,并对所有表中的变更进行全排序。
     * 此类代表了在变更表上的开放数据库游标,能够向前移动游标并报告当前游标指向的变更的LSN(日志序列号)。      *      * @author Jiri Pechanec      *      */     // 私有静态内部类:变更表指针     private static class ChangeTablePointer extends ChangeTableResultSet {         // 构造函数:初始化变更表指针         ChangeTablePointer(Db2ChangeTable changeTable, ResultSet resultSet) {             super(changeTable, resultSet, COL_DATA);         }         /**          * 从结果集中获取操作类型。          *           * @param resultSet 结果集对象。          * @return 操作类型。          * @throws SQLException 如果发生SQL异常。          */         @Override         protected int getOperation(ResultSet resultSet) throws SQLException {             return resultSet.getInt(COL_OPERATION);         }         /**          * 获取下一个变更的位置信息。          *           * @param resultSet 结果集对象。          * @return 下一个变更的位置信息,如果已完成则返回NULL。          * @throws SQLException 如果发生SQL异常。          */         @Override         protected TxLogPosition getNextChangePosition(ResultSet resultSet) throws SQLException {             return isCompleted() ? TxLogPosition.NULL                     : TxLogPosition.valueOf(Lsn.valueOf(resultSet.getBytes(COL_COMMIT_LSN)), Lsn.valueOf(resultSet.getBytes(COL_ROW_LSN)));         }     } }

execute是DB2数据库变更监控系统的一部分,主要职责如下

  1. 变更检测:使用Metronome对象定期轮询数据库中的变更。
  2. 状态追踪:记录最后处理的变更位置(lastProcessedPosition)以及最后处理事件的序列号(lastProcessedEventSerialNo)。
  3. 表管理:维护一个优先队列schemaChangeCheckpoints来存储待处理的表变更,并在需要时进行迁移。
  4. LSN(日志序列号)处理:通过数据库的最大LSN(currentMaxLsn)与最后处理的LSN对比,确定是否有新的变更。
  5. 表查询:获取需查询的CDC(变更数据捕获)表(getCdcTablesToQuery),并根据LSN范围检查是否有新表或表结构变更。
  6. 变更提取与处理:从数据库中获取指定范围内的变更,并对每个变更进行处理,包括跳过无效或重复的变更、更新偏移量上下文(offsetContext)和调度变更事件(dispatcher.dispatchDataChangeEvent)。
  7. 异常处理:在SQL执行错误时,更新需查询的表列表(tablesSlot)以处理错误。
  8. 流控制:根据上下文(context)暂停或恢复流式处理,等待快照完成后再继续。
  9. 错误上报:捕获并处理执行过程中的任何异常,将异常信息设置到errorHandler

该函数的核心在于持续监控和处理数据库的变更,确保所有变更被正确捕捉并传递给下游处理逻辑。

潜在问题

  1. 异常处理

    • execute方法中,尽管捕获了InterruptedExceptionSQLException,但其他可能的异常(如自定义异常)没有被显式地处理。建议添加更细致的异常处理逻辑,以确保代码的健壮性。
    • 当捕获到SQLException时,通过processErrorFromChangeTableQuery方法处理,这个处理方式依赖于对错误消息的正则匹配,这可能在不同数据库版本或特定的错误情况下不那么可靠。
  2. 资源泄露

    • 在使用数据库连接和ResultSet等资源时,应确保在发生异常或完成操作后正确关闭这些资源,以避免潜在的资源泄露。建议使用try-with-resources语句来自动管理这些资源的关闭。
  3. 并发和同步

    • 代码中没有显示对于并发访问的控制,尤其是在多个线程可能同时访问和修改共享资源(如dataConnectionmetadataConnection)的情况下。如果这个类被设计为在多线程环境中使用,那么需要考虑添加适当的同步机制。

优化方向

  1. 代码可读性和维护性

    • 部分方法体较长,且逻辑较为复杂,这可能会影响代码的可读性和维护性。建议将一些逻辑分解为独立的方法,每个方法负责单一的逻辑,这样可以提高代码的可读性和可维护性。
  2. 性能优化

    • 在处理大量数据变更时,应考虑对数据库查询和数据处理进行优化,例如,通过调整查询语句的索引使用、批处理和缓存策略等来减少数据库的访问次数和提高处理效率。
    • 考虑使用异步处理模式来提高执行效率,特别是在处理大量并发变更事件时。
  3. 日志记录

    • 虽然代码中使用了日志记录,但可以进一步优化日志的级别和内容,例如,在捕获异常时,记录更详细的上下文信息,这有助于问题的快速定位和解决。
  4. 配置化处理

    • 代码中一些硬编码的值(如列索引)可以考虑通过配置文件来管理,这样在列结构发生变化时,只需要修改配置文件而不需要修改代码,提高了代码的灵活性。

总结

提示:Db2StreamingChangeEventSource 类似乎是用于从 DB2 数据库中获取变更事件流的一个组件,特别适用于需要实时捕捉数据库表更改的应用场景。

对处理结果集进行优化的代码片段

public void processChangesForTables(List tables, long fromLsn, long currentMaxLsn) {
    dataConnection.getChangesForTables(tables, fromLsn, currentMaxLsn, resultSets -> {
        processResultSets(resultSets);
    });
}

private void processResultSets(Db2ChangeTable[] resultSets) {
    long eventSerialNoInInitialTx = 1;
    final ChangeTablePointer[] changeTables = new ChangeTablePointer[resultSets.length];

    for (int i = 0; i < resultSets.length; i++) {
        changeTables[i] = new ChangeTablePointer(resultSets[i], resultSets[i].getResultSet());
        changeTables[i].next();
    }

    while (true) {
        ChangeTablePointer tableWithSmallestLsn = getTableWithSmallestLsn(changeTables);
        if (tableWithSmallestLsn == null) {
            break;
        }

        processTableChange(tableWithSmallestLsn, eventSerialNoInInitialTx);
    }
}

private ChangeTablePointer getTableWithSmallestLsn(ChangeTablePointer[] changeTables) {
    ChangeTablePointer tableWithSmallestLsn = null;
    for (ChangeTablePointer changeTable : changeTables) {
        if (!changeTable.isCompleted() && (tableWithSmallestLsn == null || changeTable.compareTo(tableWithSmallestLsn) < 0)) {
            tableWithSmallestLsn = changeTable;
        }
    }
    return tableWithSmallestLsn;
}

private void processTableChange(ChangeTablePointer tableWithSmallestLsn, long eventSerialNoInInitialTx) {
    if (!isLsnAvailable(tableWithSmallestLsn)) {
        return;
    }

    if (isChangeBeforeLastProcessedPosition(tableWithSmallestLsn)) {
        return;
    }

    if (isChangeInLastCommittedTransaction(tableWithSmallestLsn, eventSerialNoInInitialTx)) {
        eventSerialNoInInitialTx++;
        return;
    }

    if (isTableChangeStopped(tableWithSmallestLsn)) {
        return;
    }

    LOGGER.trace("Processing change {}", tableWithSmallestLsn);
    if (!schemaChangeCheckpoints.isEmpty()) {
        checkAndMigrateTable(tableWithSmallestLsn);
    }

    dispatchChangeEvent(tableWithSmallestLsn);
}

private boolean isLsnAvailable(ChangeTablePointer changeTable) {
    if (!changeTable.getChangePosition().isAvailable() || !changeTable.getChangePosition().getInTxLsn().isAvailable()) {
        LOGGER.error("Skipping change {} as its LSN is NULL which is not expected", changeTable);
        changeTable.next();
        return false;
    }
    return true;
}

private boolean isChangeBeforeLastProcessedPosition(ChangeTablePointer changeTable) {
    if (changeTable.getChangePosition().compareTo(lastProcessedPositionOnStart) < 0) {
        LOGGER.info("Skipping change {} as its position is smaller than the last recorded position {}", changeTable, lastProcessedPositionOnStart);
        changeTable.next();
        return true;
    }
    return false;
}

private boolean isChangeInLastCommittedTransaction(ChangeTablePointer changeTable, long eventSerialNoInInitialTx) {
    if (changeTable.getChangePosition().compareTo(lastProcessedPositionOnStart) == 0 && eventSerialNoInInitialTx <= lastProcessedEventSerialNoOnStart) {
        LOGGER.info("Skipping change {} as its order in the transaction {} is smaller than or equal to the last recorded operation {}[{}]",
                changeTable, eventSerialNoInInitialTx, lastProcessedPositionOnStart, lastProcessedEventSerialNoOnStart);
        eventSerialNoInInitialTx++;
        changeTable.next();
        return true;
    }
    return false;
}

private boolean isTableChangeStopped(ChangeTablePointer changeTable) {
    if (changeTable.getChangeTable().getStopLsn().isAvailable() &&
            changeTable.getChangeTable().getStopLsn().compareTo(changeTable.getChangePosition().getCommitLsn()) <= 0) {
        LOGGER.debug("Skipping table change {} as its stop LSN is smaller than the last recorded LSN {}", changeTable, changeTable.getChangePosition());
        changeTable.next();
        return true;
    }
    return false;
}

private void checkAndMigrateTable(ChangeTablePointer tableWithSmallestLsn) {
    if (tableWithSmallestLsn.getChangePosition().getCommitLsn().compareTo(schemaChangeCheckpoints.peek().getStopLsn()) >= 0) {
        migrateTable(partition, offsetContext, schemaChangeCheckpoints);
    }
}

private void dispatchChangeEvent(ChangeTablePointer tableWithSmallestLsn) {
    offsetContext.setChangePosition(tableWithSmallestLsn.getChangePosition(), 1);
    offsetContext.event(tableWithSmallestLsn.getChangeTable().getSourceTableId(),
            metadataConnection.timestampOfLsn(tableWithSmallestLsn.getChangePosition().getCommitLsn()));

    dispatcher.dispatchDataChangeEvent(
            partition,
            tableWithSmallestLsn.getChangeTable().getSourceTableId(),
            new Db2ChangeRecordEmitter(
                    partition,
                    offsetContext,
                    tableWithSmallestLsn.getOperation(),
                    tableWithSmallestLsn.getData(),
                    null, // Data for update after event is not shown in the snippet
                    clock, connectorConfig));
    tableWithSmallestLsn.next();
}

主要改动说明
1 代码结构清晰:通过将逻辑分解到多个更小的私有方法中,代码可读性和可维护性得到了显著提高。
2 异常处理和边界条件:新增的检查方法(如isLsnAvailable、isChangeBeforeLastProcessedPosition等)对特定条件进行了明确的处理,有助于减少潜在的异常和边界条件问题。
3 资源管理:虽然原始代码未明确显示资源管理相关问题,但建议在dataConnection.getChangesForTables方法的实现中注意资源的正确释放。
4 性能优化:通过将选择最小LSN的逻辑移到单独的方法(getTableWithSmallestLsn),减少了重复代码,提高了代码效率。此外,优化的数据处理方式减少了不必要的数据遍历。

如果resultSets的生成和处理可以独立进行,那么利用Java的并发工具,如ForkJoinPoolExecutorService,可以显著提高处理效率。下面示例展示如何使用ForkJoinPool来并行处理resultSets中的每个Db2ChangeTable

首先,我们需要创建一个ForkJoinTask的子类,用于封装每个Db2ChangeTable的处理逻辑。然后,我们可以在主方法中使用ForkJoinPool来并行执行这些任务。

import java.util.concurrent.ForkJoinPool;
import java.util.concurrent.RecursiveAction;

// 假设这是你的ChangeTablePointer类的一个简化版本
class ChangeTablePointer {
    private Db2ChangeTable changeTable;
    private ResultSet resultSet;
    // ...其他属性和方法

    public ChangeTablePointer(Db2ChangeTable changeTable, ResultSet resultSet) {
        this.changeTable = changeTable;
        this.resultSet = resultSet;
    }

    public void next() {
        // ...处理下一个变更
    }

    // ...其他方法
}

// 创建一个ForkJoinTask的子类,用于并行处理每个ChangeTablePointer
class ProcessChangeTableTask extends RecursiveAction {
    private final ChangeTablePointer changeTablePointer;

    public ProcessChangeTableTask(ChangeTablePointer changeTablePointer) {
        this.changeTablePointer = changeTablePointer;
    }

    @Override
    protected void compute() {
        // 处理ChangeTablePointer的逻辑
        while (!changeTablePointer.isCompleted()) {
            // 处理当前的变更
            processCurrentChange(changeTablePointer);
            // 移动到下一个变更
            changeTablePointer.next();
        }
    }

    private void processCurrentChange(ChangeTablePointer changeTablePointer) {
        // ...处理当前变更的逻辑
    }
}

public class ChangeProcessor {
    private final ForkJoinPool forkJoinPool;

    public ChangeProcessor() {
        this.forkJoinPool = new ForkJoinPool();
    }

    public void processChanges(Db2ChangeTable[] tables) {
        // 创建并提交任务到ForkJoinPool
        for (Db2ChangeTable table : tables) {
            ResultSet resultSet = dataConnection.getChangesForTable(table);
            ChangeTablePointer changeTablePointer = new ChangeTablePointer(table, resultSet);
            forkJoinPool.invoke(new ProcessChangeTableTask(changeTablePointer));
        }
    }
}

注意事项
1 线程安全: 确保所有共享资源(如offsetContext、dispatcher等)在并行处理时是线程安全的。你可以使用ReentrantLock、Atomic类或ConcurrentHashMap等并发工具来保证这一点。
2 异常处理: 并行处理中发生的异常可能不会立即抛出。你可能需要定期检查ForkJoinPool的异常状态,或者在ProcessChangeTableTask中捕获异常并记录或重新抛出。
3 资源管理: 确保dataConnection.getChangesForTable方法正确地管理其资源,特别是ResultSet。在ForkJoinTask中,你可能需要显式地关闭ResultSet,以避免资源泄漏。
4 性能考量: 并行处理并不总是带来性能提升,特别是当任务的粒度过小或线程切换开销过大时。你可能需要根据具体的应用场景和硬件配置调整ForkJoinPool的参数(如并行级别)。
通过这种方式,你可以充分利用多核处理器的优势,显著加快resultSets的处理速度。你可能需要根据具体需求进行调整和优化

你可能感兴趣的:(DB2-debezium,数据库,数据库开发,大数据,开源)