Presto连接器-grouped_execution功能要实现的接口

presto连接器-grouped_execution功能要实现的接口

原理

分组执行是presto在2017年就支持的功能,它的原理是:

根据相同字段(orderid)分桶(bucketing)且分桶数量相同的两个表(orders,orders_item),

在通过orderid进行join的时候,由于两个表相同的orderid都分到相同id的桶里,所以是可以独立进行join以及聚合计算的(参考MapReduer的partition过程)。

这样,每当一个桶的数据计算完成后,可以立即把这个桶所占用的内存释放掉,因此,通过控制并行处理桶的数量可以限制内存的占用。

计算理论占用的内存:优化后的内存占用=原内存占用/表的桶数量*并行处理桶的数量

完整的示例参考:

https://archongum.cn/2019/08/21/presto-query-memory-optimze/

要实现的接口

我是在基于legacy机制实现的kudu connector的基础上实现的分组执行。下面是要实现的接口:

ConnectorPartitioningHandle

这个接口可以存放我们在处理分桶逻辑时需要用到的参数。比如数据库名、表名、分桶个数、分桶字段明细信息等等。

  1. equals
    该方法用来判断join操作的左右表是否可以执行分桶操作,所以一定不要根据表名是否相等来判断true和false,否则会导致join操作永远也无法做grouped_execution。可以使用分桶个数、分桶字段类型等属性来判断。

ConnectorNodePartitioningProvider

  1. listPartitionHandles
    列出当前表所有的bucket,入参ConnectorPartitioningHandle就是我们封装的KuduPartitioningHandle,可以把接口实现需要用到的参数放到这个类中。返回的bucket只要有一个bucket_number就行了。这样在ConnectorSplitSource中会依次处理这些bucket_number。

  2. getBucketNodeMap
    仿照hive的实现即可,他的作用是构建bucket和node的映射关系,供调度使用。相关逻辑可以参考FixedSourcePartitionedScheduler的构造函数。

  3. getSplitBucketFunction
    获取bucket的bucket_number。

  4. getBucketFunction
    封装BucketFunction对象。这个对象的作用参考下文。

BucketFunction

这个类只在join操作时会使用,作用还不能确定,理论上说是获取一个page是属于哪一个bucket的。他的作用体现在唯一的接口getBucket中。

  1. getBucket
    入参page是上层封装的某个operator要处理的page中的所有分桶字段的值。每一列的值以page中一个block的形式存在。入参position是行的index。这一部分的实现可以参考HiveBucketFunction和IcebergBucketFunction。

ConnectorMetadata#getTableLayouts

这个接口即使不实现grouped_execution功能我们也要实现。通常情况只会封装一个ConnectorTableLayoutHandle对象,然后调用下图api返回一个ConnectorTableLayout对象。

    public ConnectorTableLayout(ConnectorTableLayoutHandle handle)
    {
        this(handle,
                Optional.empty(),
                TupleDomain.all(),
                Optional.empty(),
                Optional.empty(),
                Optional.empty(),
                emptyList());
    }

但是如果要实现grouped_execution就需要通过这个构造函数来将其他参数实例化:

    public ConnectorTableLayout(
            ConnectorTableLayoutHandle handle,
            Optional> columns,
            TupleDomain predicate,
            Optional tablePartitioning,
            Optional> streamPartitioningColumns,
            Optional discretePredicates,
            List> localProperties)

因为在PlanFragmenter#visitTableScan方法中会判断tablePartitioning是否存在,如果不存在则返回GroupedExecutionProperties.notCapable(),这将导致presto认定这个sql不符合grouped_execution的要求。

注:非legacy的实现会自动调用getTableProperties方法,就不需要再从getTableLayouts方法中做初始化了(非legacy也不会有getTableLayouts方法)。

PlanFragmenter#visitTableScan方法中判断tablePartitioning是否存在的逻辑如下图:

@Override
public GroupedExecutionProperties visitTableScan(TableScanNode node, Void context)
{
    Optional tablePartitioning = metadata.getTableProperties(session, node.getTable()).getTablePartitioning();
    if (!tablePartitioning.isPresent()) {
        return GroupedExecutionProperties.notCapable();
    }
    List partitionHandles = nodePartitioningManager.listPartitionHandles(session, tablePartitioning.get().getPartitioningHandle());
    if (ImmutableList.of(NOT_PARTITIONED).equals(partitionHandles)) {
        return new GroupedExecutionProperties(false, false, ImmutableList.of());
    }
    else {
        return new GroupedExecutionProperties(true, false, ImmutableList.of(node.getId()));
    }
}

所以我们必须保证返回的tableProperties方法包含完整的tablePartitioning信息。

封装ConnectorTableLayout用到的其他几个参数需要通过ConnectorMetadata#getTableProperties方法一并返回。该方法的说明如下:

ConnectorMetadata#getTableProperties

该接口用来返回表的扩展信息,例如ConnectorPartitioningHandle、切分bucket的字段(streamingPartitionColumns)、分桶个数等等。

同时在这里也可以使用自定义的session参数(或者表名)判断是否要走分组执行模式。如果不走只需要将tablePartitioning信息返回为optional.empty()即可。

注意:方法返回的ConnectorTableProperties对象的localProperties属性可以设置分桶内数据的排序方式。这里如果设置的与实际不匹配,会导致group by操作中,同一个组中的数据被拆分到多个组中。Presto的逻辑我没细看,跟同事讨论认为有可能是因为因为排序被预设了,所以当处理到其他key的数据时就认为当前正在统计的分桶结束了,会自动开始统计一个新的组。

ConnectorMetadata#getTableLayout

返回一个带有ConnectorTablePartitioning等信息的ConnectorTableLayout即可。可以调用getTableProperties方法获取相关信息。

ConnectorSplitSource

  1. getNextBatch
    KuduSplitSource中有一个集合用来存放所有Splits(或者有一个方法能获取所有splits),这些Splits都是与Group(即入参partitionHandle)相关联的。

    外界会遍历所有的Group,依次获取每个Group下所有的split,

    如果调用一次getNextBatch方法无法获取完当前Group的所有split,可以在返回的ConnectorSplitBatch中把noMoreSplits设置为false,这样外界还会再基于同样的Group重新调用这个接口:

GetNextBatch#fetchSplits -> ConnectorAwareSplitSource#getNextBatch

直到这个Group所有的split都被获取到之后,我们把返回的ConnectorSplitBatch的noMoreSplits设置为true,外界就会再继续获取其他Group的splits了。而kudu是一个bucket切分一个split,所以每次返回一个split,并把noMoreSplits设置为true。如下:

@Override
public CompletableFuture getNextBatch(ConnectorPartitionHandle partitionHandle, int maxSize) {
    KuduPartitionHandle kuduPartitionHandle = (KuduPartitionHandle) partitionHandle;

    KuduSplit kuduSplit = splitMap.remove(kuduPartitionHandle.getBucket());

    // 一个bucket只有一个split,所以noMoreSplits一定是true
    return completedFuture(new ConnectorSplitBatch(kuduSplit == null ? ImmutableList.of() : ImmutableList.of(kuduSplit), true));
}

外界调用getNextBatch获取所有Group的Split的逻辑,可以从SourcePartitionedScheduler#schedule开始阅读。

  1. isFinished
    是否表中所有的split都被获取完了。
    /**
     * Returns whether any more {@link ConnectorSplit} may be produced.
     * 

* This method should only be called when there has been no invocation of getNextBatch, * or result Future of previous getNextBatch is done. * Calling this method at other time is not useful because the contract of such an invocation * will be inherently racy. */ boolean isFinished();

ConnectorSplitManager#getSplits

该方法中,需要根据入参SplitSchedulingStrategy的值判断应该走自定义的ConnectorSplitSource还是FixedSplitSource

switch (splitSchedulingStrategy) {
    case UNGROUPED_SCHEDULING:
        return new FixedSplitSource(splits);
    case GROUPED_SCHEDULING:
        return new KuduSplitSource(splits);
    default:
        throw new IllegalArgumentException("Unknown splitSchedulingStrategy: " + splitSchedulingStrategy);
}

Connector

在该实现类的构造函数中增加ConnectorNodePartitioningProvider参数,并赋值给本地变量。

  1. getNodePartitioningProvider
@Override
public ConnectorNodePartitioningProvider getNodePartitioningProvider()
{
    return nodePartitioningProvider;
}

ConnectorHandleResolver

  1. getPartitioningHandleClass
@Override
public Class getPartitioningHandleClass()
{
    return KuduPartitioningHandle.class;
}

AbstractModule

  1. configure
    在该方法中设置ConnectorNodePartitioningProvider
bind(ConnectorNodePartitioningProvider.class).to(KuduNodePartitioningProvider.class).in(Scopes.SINGLETON);

注:presto的dynamic filtering和grouped_execution不能同时采用,所以需要通过以下设置将dynamic filtering关闭
set session enable_dynamic_filtering=false;

你可能感兴趣的:(Presto连接器-grouped_execution功能要实现的接口)