ODPS开发大全:进阶篇(2)

本文涉及的产品
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: ODPS开发大全:进阶篇

 字符串函数


函数1. SPLIT

场景:将字符串列按照分隔符(支持正则表达式)分割后返回数组。


split(str, pat)


例子:

split("浙江省-杭州市-余杭区", "-") 返回["浙江省", "杭州市", "余杭区"]

如果需要解析出杭州市,加上index即可,split("浙江省-杭州市-余杭区", "-")[1],下标从0开始计数。


函数2. SPLIT_PART

场景:将字符串按照分隔符分割,返回指定的子串。


string split_part(string str, string separator, bigint start[, bigint end])


例子:

split_part("浙江省-杭州市-余杭区", "-", 2) 返回"杭州市", start从1开始

split_part("浙江省-杭州市-余杭区", "-", 1, 2) 返回"浙江省-杭州市"


函数3. KEYVALUE

场景:将字符串按照key、value分隔符分割,返回指定key的value



KEYVALUE(STRING srcStr,STRING split1,STRING split2, STRING key)KEYVALUE(STRING srcStr, STRING key) //默认split1 = ";",默认split2 = ":"


例子:

keyvalue("sendFlag_pass:20,sendFlag_benefit:30", "," , ":", "sendFlag_pass") 返回20


函数4. STR_TO_MAP

场景:跟KEYVALUE类似,将字符串按照key、value分隔符分割,返回一个map




str_to_map(text [, delimiter1 [, delimiter2]])delimiter1 默认为 ","delimiter2 默认为 "="


例子:

str_to_map("sendFlag_pass:20,sendFlag_benefit:30", "," , ":") 返回map

str_to_map("sendFlag_pass:20,sendFlag_benefit:30", "," , ":")["sendFlag_pass"], 返回sendFlag_pass的值20


函数5. REGEXP_REPLACE

场景:将字符串中的某些字符根据正则表达式进行替换,替换成""则相当于删除。


string regexp_replace(string source, string pattern, string replace_string[, bigint occurrence])


例子:需要将msg_id中的方括号去掉,然后再一列转多行处理

regexp_replace(msg_id, "\\[|\\]", "") as msg_id


函数6. GET_JSON_OBJECT

场景:解析json格式字符串,返回指定key对应的value


STRING GET_JSON_OBJECT(STRING json,STRING path)


例子:

解析bizSuccess,则使用get_json_object(json, "$.bizSuccess"),返回true

解析totalCount,则使用get_json_object(json, "$.module.totalCount"),返回1,多层嵌套用.隔开


函数7. JSON_TUPLE

场景:get_json_object增强版,解析json格式字符串,返回指定多个key对应的value


STRING JSON_TUPLE(STRING json,STRING key1,STRING key2,...)


例子:

json_tuple(json, "module.object[*].activityId") 返回"[1310, 1314]"数组,然后可以使用regexp_replace去掉方括号进行处理。


函数8. CONCAT

场景:将多个字符串合并成一个字符串,如果有参数为NULL,则返回NULL


string concat(string a, string b...)


函数9. TRIM/LTRIM/RTRIM

场景:字符串预处理,去除字符串两边的空格,LTRIM去除左边的空格,RTRIM去除右边的空格


string trim(string str)


函数10. TOUPPER/TOLOWER

场景:字符串预处理,转大写/小写



string tolower(string source)string toupper(string source)

自定义UDF开发


这一章节主要讲Java UDF的开发流程,大概分为这样几个步骤:


image.png


具体流程


 1. 安装MaxCompute Studio idea插件


在IDEA中,打开settings设置,找到Plugins

image.png

点开Mange Plugin Repositories,如图

image.png

点击➕号,添加 http://odps.alibaba.net:8080/studio/updatePlugins.xml

image.png

在Plugins marketplace里搜索MaxCompute Studio插件,安装并重启idea

image.png


 2. 创建MaxCompute Java项目



按默认继续创建,定好自己的project名

image.png

创建好的project如图:

image.png


 3. 创建并编写MaxCompute Java类



在project中,选择目录src->java右击添加新类,选择MaxCompute Java

image.png

选择UDF

image.png

在此,可看到已经建好的UDF类,对其中的evaluate方法进行自定义编写(定义入参出参),并验证方法的正确性(添加Main方法进行自测)

image.png


 4. 将UDF函数发布到对应ODPS工作空间



首先,在idea上登陆个人账号

image.png

登陆成功后,可见到自己的花名

image.png

接下来导入project建立链接:

首先打开 Project Explorer, View->Tool Windows->Project Explorer


image.png

image.png

一般来说,选择添加开发环境即可;添加生产环境可能导致后续步骤没权限的问题。

image.png

接着,我们将自己的项目打包成jar包

右击我们写好的类,选择Delply to server

image.png

填写好函数名,再点击 ok 即可

image.png

打包完成会有success的提示

image.png

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
3月前
|
SQL 分布式计算 DataWorks
DataWorks产品使用合集之如何开发ODPS Spark任务
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
2月前
|
SQL 分布式计算 大数据
代码编码原则和规范大数据开发
此文档详细规定了SQL代码的编写规范,包括代码的清晰度,执行效率,以及注释的必要性。它强调所有SQL关键字需统一使用大写或小写,并禁止使用select *操作。此外,还规定了代码头部的信息模板,字段排列方式,INSERT, SELECT子句的格式,运算符的使用,CASE语句编写规则,查询嵌套规范,表别名定义,以及SQL注释的添加方法。这些规则有助于提升代码的可读性和可维护性。
45 0
|
2月前
|
SQL 分布式计算 大数据
大数据开发SQL代码编码原则和规范
这段SQL编码原则强调代码的功能完整性、清晰度、执行效率及可读性,通过统一关键词大小写、缩进量以及禁止使用模糊操作如select *等手段提升代码质量。此外,SQL编码规范还详细规定了代码头部信息、字段与子句排列、运算符前后间隔、CASE语句编写、查询嵌套、表别名定义以及SQL注释的具体要求,确保代码的一致性和维护性。
82 0
|
4月前
|
SQL 分布式计算 MaxCompute
SQL开发问题之对于ODPS中的UNION操作,执行计划的问题如何解决
SQL开发问题之对于ODPS中的UNION操作,执行计划的问题如何解决
|
4月前
|
存储 分布式计算 MaxCompute
构建NLP 开发问题之如何支持其他存储介质(如 HDFS、ODPS Volumn)在 transformers 框架中
构建NLP 开发问题之如何支持其他存储介质(如 HDFS、ODPS Volumn)在 transformers 框架中
|
3月前
|
数据可视化
Echarts数据可视化开发| 智慧数据平台
Echarts数据可视化开发| 智慧数据平台
|
3月前
|
数据可视化
Echarts数据可视化大屏开发| 大数据分析平台
Echarts数据可视化大屏开发| 大数据分析平台
|
3月前
|
分布式计算 大数据 Java
Scala 入门指南:从零开始的大数据开发
Scala 入门指南:从零开始的大数据开发
|
4月前
|
分布式计算 自然语言处理 MaxCompute
构建NLP 开发问题之如何在数据加载框架中实现从两个ODPS表中分别读取正样本和负样本,并在batch内以1:1的方式混合
构建NLP 开发问题之如何在数据加载框架中实现从两个ODPS表中分别读取正样本和负样本,并在batch内以1:1的方式混合
|
4月前
|
SQL Java 大数据
开发与运维应用问题之大数据SQL数据膨胀如何解决
开发与运维应用问题之大数据SQL数据膨胀如何解决