读取Maxcomputer报表数据定时邮件发送

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 数仓产出的报表基本用于大屏展示所用,但也有些数据需要每天按时推送至领导邮箱,这些数据在Dataworks如何每天定时定点推送出去呢

1.概述

我们数仓ADS层产出物,基本上都是同步到MySql中,供下游展示及报表查询使用,但经常会碰到Leader需要每天看一眼某某数据,登录BI系统有时不太方便,这就需要我们开发人员将产出的数据每天定时定点推送Leader邮箱,方便Leader查阅。这里我们使用Python3读取MaxComputer表数据存储到服务器中,然后读取服务器使用邮件发送出去

2.实现

1.发送前的准备

1.有个邮箱,设置好授权码

2.因为是在DataWorks上调度,所以要有独享调度资源组

3.创建PyODPS 3脚本文件

2.模块导入

将Python所需要的模块导入

fromemail.mimeimportimagefromosimportwritefromtimeimportsleep, timefromodpsimportODPSimportodpsfromodps.dfimportDataFrameimportpandasaspdimportdatetimeimportsmtplibfromemail.mime.textimportMIMETextfromemail.mime.multipartimportMIMEMultipartfromemail.headerimportHeaderfromemail.mime.imageimportMIMEImagefrompandas.core.indexes.apiimportall_indexes_sameimportparamiko

如果发现有的模块ODPS上并没有,则需要install进来

1.资源组列表,找到所要用的调度资源组里的运维助手

image.png

2.创建命令

image.png

3.编写好名称等,输入命令内容,比如这里需要paramiko

image.png


3.构造服务器中文件路径

首先我们先链接服务器,构造出一个文件路径,方便后续ODPS数据写入

defserver_path():
ssh=paramiko.SSHClient()
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(hostname='xxx',port=22,username='xxx',password='xxx')
stdin, stdout, stderr=ssh.exec_command('touch '+r'/xxx/'+yesterday+"xxx.xlsx")
sftp_client=ssh.open_sftp()
file_path=sftp_client.open(r'/xxx/'+yesterday+"xxx.xlsx",'w+')
returnfile_path

4.读取ODPS

读取ODPS中的报表数据,写入上面的服务器中

defodps_server_exce(file_path):
writer=pd.ExcelWriter(file_path)
#读取ODPS SQL语句odps_sql1='SELECT xxx,xxx,xxx,xxx,xxx,xxx FROM xxx WHERE ds = \"%s\"'%(bizdate)
odps_sql2='SELECT xxx,xxx FROM xxx WHERE ds = \"%s\"'%(bizdate)
#将读取的数据放入数组中witho.execute_sql(odps_sql1).open_reader() asreader:
alist1=[]
forrecordinreader:
blist=[]
foriinrecord:
blist.append(i[1])
alist1.append(blist) 
witho.execute_sql(odps_sql2).open_reader() asreader:
alist2=[]
forrecordinreader:
blist=[]
foriinrecord:
blist.append(i[1])
alist2.append(blist)
#构造Excel Sheet1,并设置表头df=pd.DataFrame(alist1,columns=["xxx","xxx","xxx","xxx","xxx","xxx"])
df.to_excel(writer,sheet_name="xxx",index=False)
#构造Excel Sheet2,并设置表头df=pd.DataFrame(alist2,columns=["xxx","xxx"])
df.to_excel(writer,sheet_name="xxx",index=False)
writer.save()
#关闭sftp_open文件file_path.close()

5.发送邮件

编写邮件标题、内容、附件

defsend_mail(path):
#链接服务器ssh=paramiko.SSHClient()
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(hostname='xxx',port=22,username='xxx',password='xxx')
sftp_client=ssh.open_sftp()
file_path=sftp_client.open(r'/xxx/'+yesterday+"xxx.xlsx",'rb')
smtp_server='smtp.xxx'#服务器sender='xxx'#发送人passwd='xxx'#口令recevier= ['xxx,xxx,xxx']#收件人cc=['xxx,xxx'] #抄送人message=MIMEMultipart('related')
title=yesterday+"_xxx"#标题message['Subject']=Header(title,'utf-8')
message['From'] =sendermessage['To'] =','.join(recevier)
message['Cc'] =','.join(cc)
#编写邮件正文message.attach(MIMEText('''xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx'''))
#构造邮件附件  att1=MIMEText(file_path.read(),'base64','utf-8')
att1['Content-Type'] ='application/octet-stream'att1.add_header('Content-Disposition', 'attachment', filename=yesterday+"_xxx.xlsx")
message.attach(att1)
#发送邮件smtp=smtplib.SMTP_SSL(smtp_server,xxx) 
smtp.login(sender,passwd)
smtp.sendmail(sender,message['To'].split(',')+message['Cc'].split(','),message.as_string())
print("发送成功")
#关闭sftp_open文件 file_path.close()

6.脚本全文

fromemail.mimeimportimagefromosimportwritefromtimeimportsleep, timefromodpsimportODPSimportodpsfromodps.dfimportDataFrameimportpandasaspdimportdatetimeimportsmtplibfromemail.mime.textimportMIMETextfromemail.mime.multipartimportMIMEMultipartfromemail.headerimportHeaderfromemail.mime.imageimportMIMEImagefrompandas.core.indexes.apiimportall_indexes_sameimportparamikobizdate= (datetime.date.today() +datetime.timedelta(days=-1)).strftime("%Y%m%d") 
yesterday= (datetime.date.today() +datetime.timedelta(days=-1)).strftime("%Y-%m-%d")
defserver_path():
ssh=paramiko.SSHClient()
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(hostname='xxx',port=22,username='xxx',password='xxx')
stdin, stdout, stderr=ssh.exec_command('touch '+r'/xxx/'+yesterday+"xxx.xlsx")
sftp_client=ssh.open_sftp()
file_path=sftp_client.open(r'/xxx/'+yesterday+"xxx.xlsx",'w+')
returnfile_pathdefodps_server_exce(file_path):
writer=pd.ExcelWriter(file_path)
#读取ODPS SQL语句odps_sql1='SELECT xxx,xxx,xxx,xxx,xxx,xxx FROM xxx WHERE ds = \"%s\"'%(bizdate)
odps_sql2='SELECT xxx,xxx FROM xxx WHERE ds = \"%s\"'%(bizdate)
#将读取的数据放入数组中witho.execute_sql(odps_sql1).open_reader() asreader:
alist1=[]
forrecordinreader:
blist=[]
foriinrecord:
blist.append(i[1])
alist1.append(blist) 
witho.execute_sql(odps_sql2).open_reader() asreader:
alist2=[]
forrecordinreader:
blist=[]
foriinrecord:
blist.append(i[1])
alist2.append(blist)
#构造Excel Sheet1,并设置表头df=pd.DataFrame(alist1,columns=["xxx","xxx","xxx","xxx","xxx","xxx"])
df.to_excel(writer,sheet_name="xxx",index=False)
#构造Excel Sheet2,并设置表头df=pd.DataFrame(alist2,columns=["xxx","xxx"])
df.to_excel(writer,sheet_name="xxx",index=False)
writer.save()
#关闭sftp_open文件file_path.close()
defsend_mail(path):
#链接服务器ssh=paramiko.SSHClient()
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(hostname='xxx',port=22,username='xxx',password='xxx')
sftp_client=ssh.open_sftp()
file_path=sftp_client.open(r'/xxx/'+yesterday+"xxx.xlsx",'rb')
smtp_server='smtp.xxx'#服务器sender='xxx'#发送人passwd='xxx'#口令recevier= ['xxx,xxx,xxx']#收件人cc=['xxx,xxx'] #抄送人message=MIMEMultipart('related')
title=yesterday+"_xxx"#标题message['Subject']=Header(title,'utf-8')
message['From'] =sendermessage['To'] =','.join(recevier)
message['Cc'] =','.join(cc)
#编写邮件正文message.attach(MIMEText('''xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx'''))
#构造邮件附件  att1=MIMEText(file_path.read(),'base64','utf-8')
att1['Content-Type'] ='application/octet-stream'att1.add_header('Content-Disposition', 'attachment', filename=yesterday+"_xxx.xlsx")
message.attach(att1)
#发送邮件smtp=smtplib.SMTP_SSL(smtp_server,xxx) 
smtp.login(sender,passwd)
smtp.sendmail(sender,message['To'].split(',')+message['Cc'].split(','),message.as_string())
print("发送成功")
#关闭sftp_open文件 file_path.close()
if__name__=='__main__':
file_path=linux_path()
odpsDataToExcel(file_path)
sendTomail(file_path)

7.设置定时

DataWorks上右侧调度配上界面,配置好时间几点发送,调度选择独享调度资源组,依赖上游为ODPS表

image.png

3.总结

以上就是使用Python3编写代码在DataWorks实现定时邮件推送功能,实现的方法应该有很多,目前依靠阿里云组件目前我们采用的是这种方式,若有不足之处,欢迎指正。

拜了个拜

相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
目录
相关文章
|
SQL 分布式计算 MaxCompute
MaxCompute SQL使用小技巧之时间日期处理
业务需求分析中经常会对时间日期进行处理,MaxComputer中也有很多关于日期的处理函数,文章就是对这些内置函数相互嵌套使用达到分析要求的分析
5623 0
|
SQL druid 搜索推荐
最强最全面的数仓建设规范指南 (一)
本文将全面讲解数仓建设规范,从数据模型规范,到数仓公共规范,数仓各层规范,最后到数仓命名规范,包括表命名,指标字段命名规范等!
13564 2
|
SQL 分布式计算 资源调度
MaxCompute常见错误汇总(更新ing)
从今天开始,小编会为大家陆续解读MaxCompute常见问题,帮助大家快速上手MaxCompute,玩转大数据计算平台。
24239 7
|
分布式计算 关系型数据库 BI
加速查询MaxCompute再对接FBI(帆软)的完整链路来啦!
本文旨在分享使用交互式分析查询MaxCompute数据,再对接FBI的完整链路,快速搭建大数据生态完整链路。
4667 0
|
存储 分布式计算 DataWorks
DataWorks如何同步SLS日志到odps上?
DataWorks如何同步SLS日志到odps上?
343 0
|
DataWorks 数据管理 大数据
DataWorks操作报错合集之添加数据源时显示"添加数据源连接出错"的提示,如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
分布式计算 DataWorks 关系型数据库
DataWorks产品使用合集之如何进行数据加密解密
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
398 2
|
DataWorks 安全 关系型数据库
DataWorks产品使用合集之一次查询只能显示1万条数据,如何调整这个数值
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
205 0
|
SQL 分布式计算 DataWorks
实时数仓 Hologres产品使用合集之查询分区表的生命周期(即之前设置的'auto_partitioning.num_retention'值)的SQL语句,可以使用什么查询
实时数仓Hologres是阿里云推出的一款高性能、实时分析的数据库服务,专为大数据分析和复杂查询场景设计。使用Hologres,企业能够打破传统数据仓库的延迟瓶颈,实现数据到决策的无缝衔接,加速业务创新和响应速度。以下是Hologres产品的一些典型使用场景合集。
249 0
|
数据采集 DataWorks 监控
DataWorks产品使用合集之在 DataWorks 中将本地数据导入至 Excel 电子表格中如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
302 0