hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行下面我们来看看.
Hive可以将类sql查询语句转换成Hadoop的map reduce任务,让熟悉关系型数据库的人也可以利用hadoop的强大并行计算能力,Hive提供了强大的内置函数支持,但是总有一些特殊情况,内置函数无法覆盖,这就要求我们对定义自己的函数,接下来我们通过一个例子看一下如何自定义hive函数.
1.自定义函数的实现
假设我们的关系型数据库中user表有一个status字段,代表着用户的活跃等级,取值为1~10,活跃度一次递增,现在我们要根据status字段将用户分为3个活跃度等级,Hive显然没有这种与业务逻辑强耦合的内置函数,但这不应该成为阻碍我们使用Hive的理由,下面的扩展函数就可以满足需求.
- packagecom.test.example;
- importorg.apache.hadoop.hive.ql.exec.Description;
- importorg.apache.hadoop.hive.ql.exec.UDF;
- importorg.apache.hadoop.io.Text;
- publicclassUserStatusextendsUDF{
- publicTextevaluate(Textinput){
- if(input==null)returnnull;
- intstatus=Integer.parseInt(input.toString());
- if(status>=1&&status<=3){
- returnnewText(String.valueOf(1));
- }elseif(status>=4&&status<=7){
- returnnewText(String.valueOf(2));
- }elseif(status>=7&&status<=10){
- returnnewText(String.valueOf(3));
- }//phpfensi.com
- returnnull;
- }
- }
从上面的例子可以看出实现自定义的hive函数还是相当简单的,就是继承org.apache.hadoop.hive.ql.exec.UDF 并实现execute函数.
2.自定义函数的使用
定义为自定义函数后该如何使用呢?其实也是相关简单的,假设包含自定义函数的jar包为mydf.jar.
(1).在hive shell中加载,首先加载jar包,并创建临时函数.
- %>hive
- hive>ADDJAR/path/to/mydf.jar;
- hive>createtemporaryfunctionuserStatusas'com.test.example.UserStatus';
然后就可以直接使用了.
hive> select userStatus(4);
但是每次使用都要加载一次,太费劲了,有没有别的方法呢.
(2).在.hiverc中加载
编辑home目录下的.hiverc文件,如果没有这个文件就新建一个,将加载jar包的命令写入.hiverc文件,启动hive shell时会自动执行.hiverc文件,不需要每个shell都load一遍.