电商项目之 DWD 用户启动日志表 Shell 脚本编写|学习笔记

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 快速学习电商项目之 DWD 用户启动日志表 Shell 脚本编写

开发者学堂课程【新电商大数据平台2020最新课程电商项目之 DWD 用户启动日志表 Shell 脚本编写】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/640/detail/10525


电商项目之 DWD 用户启动日志表 Shell 脚本编写

目录:

一、动态穿插

二、动态传输分区

三、脚本编写


一、动态穿插

上一个任务出现错误,因为运行任务资源不足,任务失败了。

这时需要重新增大 map 的,由于在拉取数据的时候失败了,所以在这里需要开启本地模式:

FAILED: Execution Erro,return code 2 from org.apache . hadoop.hive.ql.exec.mr .MapRedTask

MapReduce Jobs Launched:

Stage-Stage-1: Map: iHDFS Read: 0 HDFS write: 0 FAIL

Total MapReduce CPU Time Spent: 0 msec

hives > set hive.exec.mode.local.auto=true;

本地模式很快,传入一个动态分析,运行成功。

image.png

现在动态穿插完成。

 

二、动态传输分区

需要把任务写成动态传输的方式,动态传输有两个方法,都是传参数的方法。

1.hivevar :传参数,专门提供给用户自定义变量。

2.hiveconf :传参数,另外可以包括了 hive-site.xml 中配置的 hive 全局变量。

如--hiveconf "mapred.job.queue.name=root.default"

{hiveconf:bdp_day}、{hiveconf :action}等是 hql 语句中使用的条件部分对应的动态值,为 azkaban 任务脚本中对应的时间分区列值(离线任务选择昨天数据进行处理)


三、脚本编写

创建 shell,把它打开,首先改成 unix.

//写下对应的配置

!/bin/hash

//获取对应的信息:前一天的时间,年、月、日

yesterday= 'date -d "-1 day"+"&y&m&d"”

action=02

//执行

/usr/local/hive-2.1.1/bin/hive

-hiveconf action-$action//引用

-hiveconf bdp day=$yesterday //引用

-f dwd.hql//执行我的文件

写完后保存。

再创建一个 dwd.hql 文件,

写入以下代码:

set hive. exec. dynamic partition=true;

set hive. exec. dynamic partition mode=nonstrict:

insert overwrite table dwd nshop. dwd nshop actlog launch partition (bdp dayl

select

ustomer id,

device num,

device type,

os ,

os version

manufacturer,

carrier,

network type,

area code,

from unixtime(cast (ct/1000 as int),'HH'),

ct

bdp day

from ods nshop. ods nshop 01 useractlog

where

bdp_day='20200321

and

action=02

将部分内容修改为:

bdp_day='sthiveconf :bdp_day

and

action='$(hiveconf:action)';

再将 yesterday= 'date -d "-1 day"+"&y&m&d"”

修改为 yesterday= ' 20200321"数据的形式

以上就是动态传输的编写

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
打赏
0
0
0
0
317
分享
相关文章
Pytorch学习笔记(七):F.softmax()和F.log_softmax函数详解
本文介绍了PyTorch中的F.softmax()和F.log_softmax()函数的语法、参数和使用示例,解释了它们在进行归一化处理时的作用和区别。
700 1
Pytorch学习笔记(七):F.softmax()和F.log_softmax函数详解
jenkins学习笔记之三:使用jenkins共享库实现日志格式化输出
jenkins学习笔记之三:使用jenkins共享库实现日志格式化输出
jenkins学习笔记之三:使用jenkins共享库实现日志格式化输出
Tensorboard可视化学习笔记(一):如何可视化通过网页查看log日志
关于如何使用TensorBoard进行数据可视化的教程,包括TensorBoard的安装、配置环境变量、将数据写入TensorBoard、启动TensorBoard以及如何通过网页查看日志文件。
508 0
【Linux入门技巧】新员工必看:用Shell脚本轻松解析应用服务日志
关于如何使用Shell脚本来解析Linux系统中的应用服务日志,提供了脚本实现的详细步骤和技巧,以及一些Shell编程的技能扩展。
136 0
【Linux入门技巧】新员工必看:用Shell脚本轻松解析应用服务日志
Shell 脚本循环遍历日志文件中的值进行求和并计算平均值,最大值和最小值
Shell 脚本循环遍历日志文件中的值进行求和并计算平均值,最大值和最小值
113 3
PolarDB产品使用问题之表更新频繁,读取频繁,导致有很多慢日志,时间还很高,该怎么办
PolarDB产品使用合集涵盖了从创建与管理、数据管理、性能优化与诊断、安全与合规到生态与集成、运维与支持等全方位的功能和服务,旨在帮助企业轻松构建高可用、高性能且易于管理的数据库环境,满足不同业务场景的需求。用户可以通过阿里云控制台、API、SDK等方式便捷地使用这些功能,实现数据库的高效运维与持续优化。
shell 实现项目的启动与停止
shell 实现项目的启动与停止
45 0
MySQL设计规约问题之如何处理日志类型的表
MySQL设计规约问题之如何处理日志类型的表
Gin框架学习笔记(六)——gin中的日志使用
Gin框架学习笔记(六)——gin中的日志使用
439 0

热门文章

最新文章