使用Hive UDF和GeoIP库为Hive加入IP识别功能

本文涉及的产品
数据管理 DMS,安全协同 3个实例 3个月
推荐场景:
学生管理系统数据库
简介:
导读:Hive是基于Hadoop的数据管理系统,作为分析人员的即时分析工具和ETL等工作的执行引擎,对于如今的大数据管理与分析、处理有着非常大的意义。GeoIP是一套IP映射库系统,它定时更新,并且提供了各种语言的API,非常适合在做地域相关数据分析时的一个数据源。

Hive是基于Hadoop的数据管理系统,作为分析人员的即时分析工具和ETL等工作的执行引擎,对于如今的大数据管理与分析、处理有着非常大的意义。GeoIP是一套IP映射库系统,它定时更新,并且提供了各种语言的API,非常适合在做地域相关数据分析时的一个数据源。

 

UDF是Hive提供的用户自定义函数的接口,通过实现它可以扩展Hive目前已有的内置函数。而为Hive加入一个IP映射函数,我们只需要简单地在UDF中调用GeoIP的Java API即可。

GeoIP的数据文件可以从这里下载:http://www.maxmind.com/download/geoip/database/,由于需要国家和城市的信息,我这里下载的是http://www.maxmind.com/download/geoip/database/GeoLiteCity.dat.gz

 

GeoIP的各种语言的API可以从这里下载:http://www.maxmind.com/download/geoip/api/

 

 

  1. import java.io.IOException;   
  2.   
  3. import org.apache.hadoop.hive.ql.exec.UDF;   
  4.   
  5. import com.maxmind.geoip.Location;   
  6. import com.maxmind.geoip.LookupService;   
  7. import java.util.regex.*;   
  8.   
  9. public class IPToCC  extends UDF {   
  10.     private static LookupService cl = null;   
  11.     private static String ipPattern = "\\d+\\.\\d+\\.\\d+\\.\\d+";   
  12.     private static String ipNumPattern = "\\d+";   
  13.        
  14.     static LookupService getLS() throws IOException{   
  15.         String dbfile = "GeoLiteCity.dat";   
  16.         if(cl == null)   
  17.             cl = new LookupService(dbfile, LookupService.GEOIP_MEMORY_CACHE);   
  18.         return cl;   
  19.     }   
  20.        
  21.     /**  
  22.      * @param str like "114.43.181.143"  
  23.      * */  
  24.        
  25.     public String evaluate(String str) {   
  26.         try{   
  27.             Location Al = null;   
  28.             Matcher mIP = Pattern.compile(ipPattern).matcher(str);   
  29.             Matcher mIPNum = Pattern.compile(ipNumPattern).matcher(str);   
  30.             if(mIP.matches())   
  31.                 Al = getLS().getLocation(str);   
  32.             else if(mIPNum.matches())   
  33.                 Al = getLS().getLocation(Long.parseLong(str));   
  34.             return String.format("%s\t%s", Al.countryName, Al.city);   
  35.         }catch(Exception e){   
  36.             e.printStackTrace();   
  37.             if(cl != null)   
  38.                 cl.close();   
  39.             return null;   
  40.         }   
  41.     }   
  42.   
  43. }  
import java.io.IOException;

import org.apache.hadoop.hive.ql.exec.UDF;

import com.maxmind.geoip.Location;
import com.maxmind.geoip.LookupService;
import java.util.regex.*;

public class IPToCC  extends UDF {
	private static LookupService cl = null;
	private static String ipPattern = "\\d+\\.\\d+\\.\\d+\\.\\d+";
	private static String ipNumPattern = "\\d+";
	
	static LookupService getLS() throws IOException{
		String dbfile = "GeoLiteCity.dat";
		if(cl == null)
			cl = new LookupService(dbfile, LookupService.GEOIP_MEMORY_CACHE);
		return cl;
	}
	
	/**
	 * @param str like "114.43.181.143"
	 * */
	
	public String evaluate(String str) {
		try{
			Location Al = null;
			Matcher mIP = Pattern.compile(ipPattern).matcher(str);
			Matcher mIPNum = Pattern.compile(ipNumPattern).matcher(str);
			if(mIP.matches())
				Al = getLS().getLocation(str);
			else if(mIPNum.matches())
				Al = getLS().getLocation(Long.parseLong(str));
			return String.format("%s\t%s", Al.countryName, Al.city);
		}catch(Exception e){
			e.printStackTrace();
			if(cl != null)
				cl.close();
			return null;
		}
	}

}


 

 

 

使用上也非常简单,将以上程序和GeoIP的API程序,一起打成JAR包iptocc.jar,和数据文件(GeoLiteCity.dat)一起放到Hive所在的服务器的一个位置。然后打开Hive执行以下语句:

 

  1. add file /tje/path/to/GeoLiteCity.dat;   
  2. add jar /the/path/to/iptocc.jar;   
  3. create temporary function ip2cc as 'your.company.udf.IPToCC';  
add file /tje/path/to/GeoLiteCity.dat;
add jar /the/path/to/iptocc.jar;
create temporary function ip2cc as 'your.company.udf.IPToCC';

然后就可以在Hive的CLI中使用这个函数了,这个函数接收标准的IPv4地址格式的字符串,返回国家和城市信息;同样这个函数也透明地支持长整形的IPv4地址表示格式。如果想在每次启动Hive CLI的时候都自动加载这个自定义函数,可以在hive命令同目录下建立.hiverc文件,在启动写入以上三条语句,重新启动Hive CLI即可;如果在这台服务器上启动Hive Server,使用JDBC连接,执行以上三条语句之后,也可以正常使用这个函数;但是唯一一点不足是,HUE的Beeswax不支持注册用户自定义函数。

 

 

虽然不尽完美,但是加入这样一个函数,对于以后做地域相关的即时分析总是提供了一些方便的,还是非常值得加入的。



本文转自茄子_2008博客园博客,原文链接:http://www.cnblogs.com/xd502djj/p/3253411.html,如需转载请自行联系原作者。


相关实践学习
MySQL基础-学生管理系统数据库设计
本场景介绍如何使用DMS工具连接RDS,并使用DMS图形化工具创建数据库表。
目录
相关文章
|
5月前
|
SQL 存储 Java
Hive UDF UDTF UDAF 自定义函数详解
Hive UDF UDTF UDAF 自定义函数详解
97 2
Hive UDF UDTF UDAF 自定义函数详解
|
4月前
|
SQL 分布式计算 NoSQL
使用Spark高效将数据从Hive写入Redis (功能最全)
使用Spark高效将数据从Hive写入Redis (功能最全)
265 1
|
5月前
|
SQL 缓存 Java
Hive 之 UDF 运用(包会的)
Hive的UDF允许用户自定义数据处理函数,扩展其功能。`reflect()`函数通过Java反射调用JDK中的方法,如静态或实例方法。例如,调用`MathUtils.addNumbers()`进行加法运算。要创建自定义UDF,可以继承`GenericUDF`,实现`initialize`、`evaluate`和`getDisplayString`方法。在`initialize`中检查参数类型,在`evaluate`中执行业务逻辑。最后,打包项目成JAR,上传到HDFS,并在Hive中注册以供使用。
|
5月前
|
SQL Java 程序员
Hive反射函数的使用-程序员是怎么学UDF函数的
Hive反射函数的使用-程序员是怎么学UDF函数的
35 0
|
5月前
|
SQL Java 数据处理
【Hive】Hive的函数:UDF、UDAF、UDTF的区别?
【4月更文挑战第17天】【Hive】Hive的函数:UDF、UDAF、UDTF的区别?
|
5月前
|
SQL 消息中间件 Apache
Flink报错问题之使用hive udf函数报错如何解决
Apache Flink是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。本合集提供有关Apache Flink相关技术、使用技巧和最佳实践的资源。
|
5月前
|
SQL 分布式计算 Java
Hive自定义函数UDF编写
Hive自定义函数UDF编写
75 2
|
5月前
|
SQL 搜索推荐 Java
Hive中的UDF是什么?请解释其作用和使用方法。
Hive中的UDF是什么?请解释其作用和使用方法。
80 0
|
12月前
|
SQL 分布式计算 Java
阿里云MaxCompute-Hive UDF(Java)迁移上云实践
阿里云MaxCompute-Hive UDF(Java)迁移上云实践
|
SQL 分布式计算 Java
浅析 hive udf 的正确编写和使用方式- 论姿势的重要性 - 系列三 - hdfs 相对路径与静态代码块引起的问题
浅析 hive udf 的正确编写和使用方式- 论姿势的重要性 - 系列三 - hdfs 相对路径与静态代码块引起的问题