暂无个人介绍
能力说明:
通过课程学习与实战项目,熟练掌握Python的语法知识与编程技能,具备Python语言的函数、面向对象、异常处理等能力,常用开发框架的实际应用和开发能力,具备使用,掌握Python数据分析三剑客Matplotlib、Numpy、Pandas的概念与应用场景,掌握利用Python语言从数据采集到分析的全流程相关知识。
阿里云技能认证
详细说明本文是参加QCon全球软件开发大会(2023·北京站)专题分享后的一些总结。参加此次大会的最大感受是疫情后的快速恢复,到现场的听众座无虚席,一些场次甚至出现无座。同时也学习了其他多个专题分享,总体感觉是整个大会专业度很高,无论是从专题分享的内容、还是Q&A环节的听众互动。
为了让数据能够发挥其价值,需要对其进行一系列处理:查询检索、计算与转换、统计与分析。 从使用者的角度来说,优秀数据处理引擎需要保证两个方面的优势:性能、易用性。在易用性方面一个趋势是从以前的传统的数据仓库可视化拖拖拽拽完成数据编排与处理,转变到现在云上数据平台更好的支持可编程方便开发者,可编程包括平台本身的API和数据处理过程的用户接口语言。在创造编程语言这件事情上,大家总是乐此不疲,在数据处理领域亦是如此,每个数据处理引擎出于特定场景易用性、生态集成等等原因,都会提供一种接口语言,统称为DSL(Domain Specific Language)。
一起学习a16z最近的几篇文章,了解最新数据领域的技术动态和分析其中所包含2020年至今的一些发展趋势。
过去一年,SLS团队持续对数据加工服务进行了各方面迭代升级,本文总结了相关功能与技术上的进展。
Bitcoin 公链可以理解为是一个公共的数据库,里面存储的是Bitcoin发布至今的所有转账记录,并且任何人只要接入到其网络中都可以获取,并不需要任何交易、挖矿、持币等相关操作。 本文主要主题的是将原始的Bitcoin公链数据进行清洗规整,写入到阿里云SLS,然后做一些有趣的数据处理,比如实现简洁的区块链浏览器、数据分析、交易链路追踪等。
数据编码在大数据处理的基础操作,本文讨论了 Python3 中的数据编码方案,以及在 SLS 数据加工中内置的数据编解码函数使用。
在数据的生命周期基本可以概括为生成、传输、计算、存储、展示这么几个流程,每个流程可能会重复执行。在这整周期中,为了便捷性、安全性、执行效率等各个方面的考量,我们会引入各种各样的编码方式,比如图片的JPEG格式、文本的UTF-8编码、访问网址参数需要URL编码等。
本文是参加2021 K+全球软件研发行业创新峰会专题分享后的一些总结。同时也学习了其他多个专题分享,总体感觉是整个大会的分享专题覆盖面特别广,专业度都很高。此次专题分享我希望带给听众对于整个日志数据处理场景的现状、常规解决方案,以及带大家深入了解我们团队自研的数据加工服务的技术架构、核心技术难点等。另外就是数据加工的场景实践,以及对未来发展的简述。
日志处理是一个极其繁琐的过程,究其原因是日志的边界情况特别多,而且可能随时在变。阿里云 SLS 数据加工服务是专门针对日志规整、富化、集散等处理场景。本文主要介绍在多模式混杂的日志集散场景下,如何快速使用 SLS 数据加工服务完成需求。
【数据加工】是一个可托管、高可用、可扩展的数据处理服务,广泛适用于数据的规整、富化、分发、汇总、重建索引等场景。这里详细介绍如何通过数据加工实现数据的分发与汇总,从而实现统一存储管理或分类精细化查询分析,以及存储成本优化等目的。
【数据加工】是一个可托管、高可用、可扩展的数据处理服务,广泛适用于数据的规整、富化、分发、汇总、重建索引等场景。这里详细介绍如何通过数据加工实现数据的分发与汇总,从而实现统一存储管理或分类精细化查询分析,以及存储成本优化等目的。
阿里云 SLS 是云上一站式大数据处理、分析平台,其目标是“让用户专注在数据价值上,把数据系统部署、运维、扩容的工作交给 SLS”
阿里云 SLS 是云上一站式大数据处理、分析平台。SLS 数据加工功能则是一个可托管、高可用、可扩展的数据处理服务,广泛适用于数据的规整、富化、分发、汇总、重建索引等场景。
SLS 数据加工提供了预览功能,以便用户可以在发布运行之前,对 DSL 脚本进行调试,保证 DSL 的正确性和完整性。数据加工提供了2种预览方式,快速预览和高级预览。
SLS【数据加工】功能已经广泛用于数据的内容规整、信息富化、分发和汇总、索引重建等业务场景。因为其免运维、易扩展的特性,使其成为目前 SLS 上数据处理的首选。我们使用数据加工的时候,需如何为其授权呢,这里就给大家纤细介绍。
SLS 发布针对新冠病毒肺炎疫情国内动态展示分析的 APP 已经全面开放给政府、社区、第三方平台和开放者进行广泛应用,完全免费开放。随着新冠病毒肺炎疫情在全球爆发,又推出跟踪关注全球范围疫情动态的分析大盘。
日志分析,在 SLS 体验搜索百亿数据,秒级返回。超高性价比,无人能敌,并可轻松从 ELK 迁入
基于InfluxDB Cluster v0.11的实现,并结合目前正火的开源HTAP数据库TiDB,通过对比理解InfluxDB Cluster的解决方案
用TiKV存储时序数据,其底层数据组织形式是怎么样的,与InfluxDB的数据存储模式相比有何优缺点。
在量化交易中使用CNN做时间序列预测的理论,以及实现框架
InfluxDB的存储引擎从LSM Tree,到mmap B+ Tree,再到TSM Tree。
支持中低频量化交易的单机数据平台,使用InfluxDB存储实时交易数据,HDF5存储静态历史数据用于回测。