自定义hive url parse函数

简介:

在用hive做nginx日志url 分析的时候,经常需要parse url。
hive中自带的函数parse_url可以实现这个功能,不过它对格式的要求比较严格,不能直接用于nginx log的request字段。

1
2
hive -e  "select parse_url('http://facebook.com/path1/p.php?k1=v1&k2=v2#Ref1', 'HOST') from dual"
facebook.com


1
2
hive -e  "select parse_url('facebook.com/path1/p.php?k1=v1&k2=v2#Ref1', 'HOST') from dual"
NULL

也可以通过regexp_extract来实现,不过需要写正则,同时性能也有些问题。。

1
2
hive -e  "select regexp_extract('GET /vips-mobile/router.do?api_key=24415b921531551cb2ba756b885ce783&app_version=1.8.6&fields=sku_id HTTP/1.1','.+? +(.+?)app_version=(.+?)&(.+) .+?',2) from dual"
1.8.6

考虑自己写一个,借鉴parse_url的udf:
代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
package  com.hive.myudf;
import  java.net.URL;
import  java.util.regex.Matcher;
import  java.util.regex.Pattern;
import  org.apache.hadoop.hive.ql.exec.UDF;
public  class  UDFNginxParseUrl  extends  UDF {
   private  String schemal =  "http://" ;
   private  String host1 =  null ;
   private  Pattern p1 =  null ;
   private  URL url =  null ;
   private  Pattern p =  null ;
   private  String lastKey =  null ;
   public  UDFNginxParseUrl() {
   }
   public  String evaluate(String host1, String urlStr, String partToExtract) {
     if  (host1 ==  null  || urlStr ==  null  || partToExtract ==  null ) {
       return  null ;
     }
      p1 = Pattern.compile( "(.+?) +(.+?) (.+)" );
      Matcher m1 = p1.matcher(urlStr);
      if  (m1.matches()){
           String realUrl = schemal + host1 + m1.group( 2 );
           System.out.println( "URL is "  + realUrl);
           try {
                url =  new  URL(realUrl);
           } catch  (Exception e){
                return  null ;
           }
                                              
      }
      /*
     if (lastUrlStr == null || !urlStr.equals(lastUrlStr)) {
       try {
         url = new URL(urlStr);
       } catch (Exception e) {
         return null;
       }
     }
     lastUrlStr = urlStr;
      */
     if  (partToExtract.equals( "HOST" )) {
       return  url.getHost();
     }
     if  (partToExtract.equals( "PATH" )) {
       return  url.getPath();
     }
     if  (partToExtract.equals( "QUERY" )) {
       return  url.getQuery();
     }
     if  (partToExtract.equals( "REF" )) {
       return  url.getRef();
     }
     if  (partToExtract.equals( "PROTOCOL" )) {
       return  url.getProtocol();
     }
     if  (partToExtract.equals( "FILE" )) {
       return  url.getFile();
     }
     if  (partToExtract.equals( "AUTHORITY" )) {
       return  url.getAuthority();
     }
     if  (partToExtract.equals( "USERINFO" )) {
       return  url.getUserInfo();
     }
     return  null ;
   }
   public  String evaluate(String host, String urlStr, String partToExtract, String key) {
     if  (!partToExtract.equals( "QUERY" )) {
       return  null ;
     }
     String query =  this .evaluate(host, urlStr, partToExtract);
     if  (query ==  null ) {
       return  null ;
     }
     if  (!key.equals(lastKey)) {
       p = Pattern.compile( "(&|^)"  + key +  "=([^&]*)" );
     }
     lastKey = key;
     Matcher m = p.matcher(query);
     if  (m.find()) {
       return  m.group( 2 );
     }
     return  null ;
   }
}


add jar和create function之后测试:

1
2
hive -e  "select nginx_url_parse('test.test.com','GET /vips-mobile/router.do?api_key=24415&app_version=1.8.6&fields=sku_id HTTP/1.1','HOST') FROM dual;"
test.test.com


1
2
hive -e  "select nginx_url_parse('test.test.com','GET /vips-mobile/router.do?api_key=24415&app_version=1.8.6&fields=sku_id HTTP/1.1','QUERY','api_key') FROM dual;"
24415

这样就可以直接应用于nginx的日志了。



本文转自菜菜光 51CTO博客,原文链接:http://blog.51cto.com/caiguangguang/1350463,如需转载请自行联系原作者

相关文章
|
8月前
|
SQL HIVE
Hive LAG函数分析
Hive LAG函数分析
91 0
|
3月前
|
SQL 分布式计算 Hadoop
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(一)
66 4
|
3月前
|
SQL
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(二)
Hadoop-14-Hive HQL学习与测试 表连接查询 HDFS数据导入导出等操作 逻辑运算 函数查询 全表查询 WHERE GROUP BY ORDER BY(二)
55 2
|
8月前
|
SQL HIVE
hive高频函数(一)
hive高频函数(一)
60 0
|
4月前
|
SQL JavaScript 前端开发
Hive根据用户自定义函数、reflect函数和窗口分析函数
Hive根据用户自定义函数、reflect函数和窗口分析函数
51 6
|
6月前
|
运维 监控 Cloud Native
云原生数据仓库使用问题之是否有处理URL的函数
阿里云AnalyticDB提供了全面的数据导入、查询分析、数据管理、运维监控等功能,并通过扩展功能支持与AI平台集成、跨地域复制与联邦查询等高级应用场景,为企业构建实时、高效、可扩展的数据仓库解决方案。以下是对AnalyticDB产品使用合集的概述,包括数据导入、查询分析、数据管理、运维监控、扩展功能等方面。
|
8月前
|
SQL XML JSON
Hive函数全解——思维导图 + 七种函数类型
Hive函数全解——思维导图 + 七种函数类型
174 2
Hive函数全解——思维导图 + 七种函数类型
|
8月前
|
SQL 分布式计算 HIVE
Hive Cli / HiveServer2 中使用 dayofweek 函数引发的BUG!
在Hive 3.1.2和Spark 3.0.2集群环境中,遇到`dayofweek`函数bug。当`create_date`为字符串类型时,`dayofweek`函数结果错位。修复方法是将`create_date`转换为`date`类型。在Spark SQL中,原始代码能正常运行,未出现此问题。因此建议在Hive中使用转换后的日期类型以避免错误。
108 4
|
8月前
|
SQL HIVE
【Hive SQL】字符串操作函数你真的会用吗?
本文介绍了SQL中判断字符串是否包含子串的几种方法。`IN`函数判断元素是否完全等于给定元素组中的某项,而非包含关系。`INSTR`和`LOCATE`函数返回子串在字符串中首次出现的位置,用于检测是否存在子串。`SUBSTR`则用于提取字符串的子串。`LIKE`用于模糊匹配,常与通配符配合使用。注意`IN`并非用于判断子串包含。
604 3
|
8月前
|
SQL 数据处理 HIVE
【Hive】写出Hive中split、coalesce及collect_list函数的用法?
【4月更文挑战第17天】【Hive】写出Hive中split、coalesce及collect_list函数的用法?