3.基于 MaxCompute 的大数据BI分析最佳实践(二)|学习笔记

本文涉及的产品
阿里云百炼推荐规格 ADB PostgreSQL,4核16GB 100GB 1个月
日志服务 SLS,月写入数据量 50GB 1个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 快速学习3.基于 MaxCompute 的大数据BI分析最佳实践

开发者学堂课程【DataWorks 一站式大数据开发治理平台精品课程:3.基于 MaxCompute 的大数据BI分析最佳实践】与课程紧密联系,让用户快速学习知识

课程地址:https://developer.aliyun.com/learning/course/81/detail/1251


3.基于 MaxCompute 的大数据BI分析最佳实践(二)

四、ADB容量评估

产品分析型数据库ADB,比如到原始数据的量在ADB里面怎么做容量的评估?

1、公式:

原始数据量(单位GB)x索引膨胀系数(1.3倍)/空间水位线(0.7)/(每个节点组的磁盘大小,需要存储的空间

2、例如:

计算存储分离的架构,分别购买,可以购买计算节点,也可以购买存储量,可以进行动态的调整,业务方可以根据自己的计算量,还有上面的存储做评估。客户原始数据量为1TB,即约1000GB,按照公式计算可得,1024*1.3/0.7/1000=1902(GB)用户可选择2节点,每节点1000GB的配置。因此可粗略估计ADB1TB存储空间年费用约11w。如果客户有4T数据,按照上述公式需要购买8节点组,年费用约为11万x4=44万注:本方案中只进行估算,具体配置和费用以客户实际场景为准。


五、WebTracking 日志采集原理

1、对接的前端进行日志的采集,前端向要模拟的用户的行为数据就可以用WebTracking 产品的功能,日志服务支持通过 WebTracking 功能进行 HTML、H5、iOS和 Android 平日志数据的采集,支持自定义维度和指标。

2、将 loghub-tracking.js复制到web目录,并在页面中引入

如下脚本:

<metahttp-equiv"=refresh"content="1">

<scripttype="text/javascript"src="oss地址/Loghub-

tracking.js"></script>

<script>

varlogger=newwindow.Tracker("日志所在region的

engpoint","日志服务project名称","LogStore名称")

varitemid={};

for{vari=1;i<=2046;i++}{

variStr=i.toString{};

item_id.push(istr);

}

varlenItems=item_id.length;

varrandItem.Math.fLoor{Math.Random{}+LenItems};

varuser_id=[];

for{varj=1;j<=640;j++}{

varjStr=j,toString{};

user_id.push(jStr);

}

varlenUsersId=userid.length;

varrandUserId=Math.floor{Math.Random{}*lenUsersId};

Logger.Push{"itemid",item_id[randItem]};

logger.Push{"user_id",user_id[randUserId]};

logger.logger();

</script>

3、注意事项

(1)使用 WebTracking 意味着该 Logstore 打开互联网匿名写入的权限,没有经过有效鉴权,可能会产生脏数据。

(2)仅支持GET请求,不支持POST请求;且不支持上传16KB以上的 body。

(3)POST请求限制与PutLogs一致,大小不超过3MB,条数不超过4096条。

4、方案优势

1以ADB+QuickBI快速实时数据分析的核心能力为切入点,将客户的业务数据、日志数据引导上阿里云的日志服务和分析性数据库,投递到ADB,通过QuickBI做报表的分析。

2融合阿里云的日志服务SLS的生态,增强用户粘性(如无缝对接Blink、Elasticsearch、RDS、ADB、EMR、dataV等产品)。3通过MaxCompute、ADB强大的数据加工和分析能力,极大的降低了用户大数据平台建设的门槛,轻松解决了海量数据的计算问题,同时有效降低企业成本并保障数据安全

4与第三方开源生态无缝对接,在不侵入用户应用的情况下传输日志到SLS,降低用户使用门槛。


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
相关文章
|
7月前
|
数据可视化 BI Apache
大数据可视化BI分析工具Apache Superset实现公网远程访问
大数据可视化BI分析工具Apache Superset实现公网远程访问
|
分布式计算 运维 监控
3.基于 MaxCompute 的大数据BI分析最佳实践(一)|学习笔记
快速学习3.基于 MaxCompute 的大数据BI分析最佳实践
|
弹性计算 分布式计算 监控
基于MaxCompute的大数据BI分析
本文以电商行业为例,将业务数据和日志数据使用MaxCompute做ETL之后,同步到ADB进行实时分析,之后通过Quick BI进行快速可视化展示。
基于MaxCompute的大数据BI分析
|
2月前
|
存储 机器学习/深度学习 分布式计算
大数据技术——解锁数据的力量,引领未来趋势
【10月更文挑战第5天】大数据技术——解锁数据的力量,引领未来趋势
|
24天前
|
存储 分布式计算 数据挖掘
数据架构 ODPS 是什么?
数据架构 ODPS 是什么?
196 7
|
24天前
|
存储 分布式计算 大数据
大数据 优化数据读取
【11月更文挑战第4天】
39 2
|
1月前
|
数据采集 监控 数据管理
数据治理之道:大数据平台的搭建与数据质量管理
【10月更文挑战第26天】随着信息技术的发展,数据成为企业核心资源。本文探讨大数据平台的搭建与数据质量管理,包括选择合适架构、数据处理与分析能力、数据质量标准与监控机制、数据清洗与校验及元数据管理,为企业数据治理提供参考。
78 1
|
15天前
|
机器学习/深度学习 存储 大数据
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系,保留最大方差信息,实现数据压缩、去噪及可视化。本文详解PCA原理、步骤及其Python实现,探讨其在图像压缩、特征提取等领域的应用,并指出使用时的注意事项,旨在帮助读者掌握这一强大工具。
32 4
|
21天前
|
存储 大数据 数据管理
大数据分区简化数据维护
大数据分区简化数据维护
24 4
|
1月前
|
存储 大数据 定位技术
大数据 数据索引技术
【10月更文挑战第26天】
55 3