Hive进行UDF开发十分简单,此处所说UDF为Temporary的function,所以需要hive版本在0.4.0以上才可以。
一、背景:Hive是基于Hadoop中的MapReduce,提供HQL查询的数据仓库。Hive是一个很开放的系统,很多内容都支持用户定制,包括:
a)文件格式:Text File,Sequence File
b)内存中的数据格式: Java Integer/String, Hadoop IntWritable/Text
c)用户提供的 map/reduce脚本:不管什么语言,利用 stdin/stdout 传输数据
d)用户自定义函数: Substr, Trim, 1 – 1
e)用户自定义聚合函数: Sum, Average…… n – 1
2、定义:UDF(User-Defined-Function),用户自定义函数对数据进行处理。
二、用法
1、UDF函数可以直接应用于select语句,对查询结构做格式化处理后,再输出内容。
2、编写UDF函数的时候需要注意一下几点:
a)自定义UDF需要继承org.apache.hadoop.hive.ql.UDF。
b)需要实现evaluate函数。
c )evaluate 函数支持重载。
实现 IP 转十进制
package org.iptostring; import org.apache.hadoop.hive.ql.exec.UDF; public class IpToString extends UDF { public String evaluate(long longIp){ StringBuffer sb = new StringBuffer(""); sb.append(String.valueOf((longIp >>> 24))); sb.append("."); sb.append(String.valueOf((longIp & 0x00FFFFFF) >>> 16)); sb.append("."); sb.append(String.valueOf((longIp & 0x0000FFFF) >>> 8 )); sb.append("."); sb.append(String.valueOf((longIp & 0x000000FF))); return sb.toString(); } }
package org.iptolong; import java.util.regex.Pattern; import org.apache.hadoop.hive.ql.exec.UDF; public class IpToLong extends UDF { public long evaluate(String strIp){ Pattern pattern = Pattern.compile("((\\d{1,2}|1\\d\\d|2[0-4]\\d|25[0-5])\\.(\\d{1,2}|1\\d\\d|2[0-4]\\d|25[0-5])\\.(\\d{1,2}|1\\d\\d|2[0-4]\\d|25[0-5])\\.(\\d{1,2}|1\\d\\d|2[0-4]\\d|25[0-5]))"); if (pattern.matcher( strIp ).matches()){ long[] ip = new long[4]; int position1 = strIp.indexOf("."); int position2 = strIp.indexOf(".", position1 + 1); int position3 = strIp.indexOf(".", position2 + 1); ip[0] = Long.parseLong(strIp.substring(0, position1)); ip[1] = Long.parseLong(strIp.substring(position1+1, position2)); ip[2] = Long.parseLong(strIp.substring(position2+1, position3)); ip[3] = Long.parseLong(strIp.substring(position3+1)); return (ip[0] << 24) + (ip[1] << 16) + (ip[2] << 8 ) + ip[3]; }else{ return 0; } } }