Hive支持用户自定义聚合函数(UDAF),这种类型的函数提供了更加强大的数据处理功能。Hive支持两种类型的UDAF:简单型和通用型。正如名称所暗示的,简单型UDAF的实现非常简单,但由于使用了反射的原因会出现性能的损耗,并且不支持长度可变的参数列表等特征。而通用型UDAF虽然支持长度可变的参数等特征,但不像简单型那么容易编写。
这篇文章将学习编写UDAF的规则,比如需要实现哪些接口,继承哪些类,定义哪些方法等, 实现通用型UDAF需要编写两个类:解析器和计算器。解析器负责UDAF的参数检查,操作符的重载以及对于给定的一组参数类型查找正确的计算器。计算器实现实际UDAF的计算逻辑。通常解析器可以实现org.apache.hadoop.hive.ql.udf.generic.GenericUDAFResolver2接口,但建议继承org.apache.hadoop.hive.ql.udf.generic.AbstractGenericUDAFResolver抽象类,该类实现了GenericUDAFResolver2接口。计算器需要继承org.apache.hadoop.hive.ql.udf.generic.GenericUDAFEvaluator抽象类,并做为解析器的内部静态类实现。
解析器的类型检查确保用户传递正确的参数,比如UDAF的参数为Integer类型,那么用户传递Double就需要抛出异常。操作符重载则允许为不同类型的参数定义不同的UDAF逻辑。在编码之前,先了解一下AbstractGenericUDAFResolver类,该类有两个重载的方法public GenericUDAFEvaluator getEvaluator(GenericUDAFParameterInfoinfo)和public GenericUDAFEvaluatorgetEvaluator(TypeInfo[] info),其中前者不再建议使用,这样继承该类时只覆盖第二个方法即可。该方法的参数类型为TypeInfo[],返回值为GenericUDAFEvaluator,在该方法中完成参数的检查,不仅包括参数的数量还有参数的类型。TypeInfo位于包org.apache.hadoop.hive.serde2.typeinfo中,该类存储类型信息,Hive目前支持5种类型:基本类型(String,Number等)、List对象、Map对象、Struct对象和Union对象。该类的getCategory()方法返回类型信息的类别,具体为枚举类ObjectInspector.Category,该枚举类包含了对应上述5种类型的枚举常量,分别为:PRIMITIVE、LIST、MAP、STRUCT和UNION。getEvaluator(TypeInfo[] info)的具体实现如下:
@Override public GenericUDAFEvaluator getEvaluator(TypeInfo[] parameters) throws SemanticException { if (parameters.length != 1) { throw new UDFArgumentTypeException(parameters.length - 1, "Exactly one argument is expected."); } ObjectInspector oi = TypeInfoUtils.getStandardJavaObjectInspectorFromTypeInfo(parameters[0]); if (!ObjectInspectorUtils.compareSupported(oi)) { throw new UDFArgumentTypeException(parameters.length - 1, "Cannot support comparison of map<> type or complex type containing map<>."); } return new GenericUDAFMaxEvaluator(); }
如果想实现操作符重载,需要创建与操作符数目相同的计算器内部类,比如有两个重载方法,那么需要创建两个计算器,然后根据输入参数的不同返回不同的计算器。
正如上面提到的计算器需要继承org.apache.hadoop.hive.ql.udf.generic.GenericUDAFEvaluator抽象类,该类提供了几个需要被子类实现的抽象方法,这些方法建立了处理UDAF语义的过程。在具体学习如何编写计算器之前,先了解一下计算器的4种模式,这些模式由枚举类GenericUDAFEvaluator.Mode定义:
public static enum Mode { PARTIAL1, PARTIAL2, FINAL, COMPLETE };
PARTIAL1模式是从原始数据到部分聚合数据的过程,将调用方法iterate() 和terminatePartial()。PARTIAL2模式是从部分聚合数据到部分聚合数据的过程,将调用方法merge() 和terminatePartial()。FINAL模式是从部分聚合到全部聚合的过程,将调用merge()和 terminate()。最后一种模式为COMPLETE,该模式为从原始数据直接到全部聚合的过程,将调用merge() 和 terminate()。
在了解了计算器的模式后,具体看看计算器必须实现的方法。GenericUDAFEvaluator类提供了下面几个抽象方法:
除了上述抽象方法,GenericUDAFEvaluato还有一个虽然不是抽象方法但通常也需要覆盖的方法ObjectInspector init(GenericUDAFEvaluator.Mode m,ObjectInspector[] parameters),该方法用于初始化计算器,在不同的模式下第二参数的含义是不同的,比如m为PARTIAL1 和 COMPLETE时,第二个参数为原始数据,m为PARTIAL2 和 FINAL时,该参数仅为部分聚合数据(该数组总是只有一个元素)。在PARTIAL1和PARTIAL2模式下,ObjectInspector 用于terminatePartial方法的返回值,在FINAL和COMPLETE模式下ObjectInspector 用于terminate方法的返回值。
上述这些方法基本按照init、getNewAggregationBuffer、iterate、terminatePartial、merge、terminate的顺序调用。还有一点需要明确的是聚合计算必须在数据上是任意可分的。
可以参考Hive自带的聚合函数,比如求最大值的max函数,其计算器的源代码如下所示。在计算器中必须注意的是ObjectInspector及其子类的使用,该类表示特定的类型及如何在内存中存储该类型的数据,具体的使用方法可以参考API。public static class GenericUDAFMaxEvaluator extends GenericUDAFEvaluator { private transient ObjectInspector inputOI; private transient ObjectInspector outputOI; @Override public ObjectInspector init(Mode m, ObjectInspector[] parameters) throws HiveException { assert (parameters.length == 1); super.init(m, parameters); inputOI = parameters[0]; // Copy to Java object because that saves object creation time. // Note that on average the number of copies is log(N) so that's not // very important. outputOI = ObjectInspectorUtils.getStandardObjectInspector(inputOI, ObjectInspectorCopyOption.JAVA); return outputOI; } /** class for storing the current max value */ static class MaxAgg extends AbstractAggregationBuffer { Object o; } @Override public AggregationBuffer getNewAggregationBuffer() throws HiveException { MaxAgg result = new MaxAgg(); return result; } @Override public void reset(AggregationBuffer agg) throws HiveException { MaxAgg myagg = (MaxAgg) agg; myagg.o = null; } boolean warned = false; @Override public void iterate(AggregationBuffer agg, Object[] parameters) throws HiveException { assert (parameters.length == 1); merge(agg, parameters[0]); } @Override public Object terminatePartial(AggregationBuffer agg) throws HiveException { return terminate(agg); } @Override public void merge(AggregationBuffer agg, Object partial) throws HiveException { if (partial != null) { MaxAgg myagg = (MaxAgg) agg; int r = ObjectInspectorUtils.compare(myagg.o, outputOI, partial, inputOI); if (myagg.o == null || r < 0) { myagg.o = ObjectInspectorUtils.copyToStandardObject(partial, inputOI,ObjectInspectorCopyOption.JAVA); } } } @Override public Object terminate(AggregationBuffer agg) throws HiveException { MaxAgg myagg = (MaxAgg) agg; return myagg.o; } }