【MaxCompute 常见问题】 PyODPS

简介: 1. PyODPS数据类型如何设置?如果您使用 PyODPS,可以通过下列方法打开新数据类型开关: 如果通过 execute_sql 方式打开新数据类型,可以执行 o.execute_sql('setodps.sql.type.system.odps2=true;query_sql', hints={"od ps.sql.submit.mode" : "script"})。 如果通过 Dataframe 打开新数据类型

PyODPS


Python 连接 MaxCompute 常见使用问题

1. PyODPS数据类型如何设置?

如果您使用 PyODPS,可以通过下列方法打开新数据类型开关: 如果通过 execute_sql 方式打开新数据类型,可以执行 o.execute_sql('setodps.sql.type.system.odps2=true;query_sql', hints={"od ps.sql.submit.mode" : "script"})。 如果通过 Dataframe 打开新数据类型,例如 persistexecuteto_pandas 等方法,可通过hints 参数设置。下图中设置方法仅针对单个作业生效。

image.png

如果通过 Dataframe 调用,且需要全局生效,需要使用 Option 参数 options.sql.use_odps2_exte nsion = True


2. PyODPS创建表时怎么添加分区?

使用 create_table()方法创建表就可以,具体参考文档


3. PyODPS操作 SQL 的示例代码有获取记录数的操作,放到MaxCompute 中运行的就提示没有 count 属性了,怎么解决?

Dataworks 上默认未开启 Instance Tunnel,即 instance.open_reader 默认使用 Result 接口,最多可以获取一万条记录。开启 Instance Tunnel 后,可以通过 reader.count 获取记录数。


4. 请问 MaxCompute DataFrame 拿到某一列的值转换成 list 应该如何操作?

print iris['sepallength'].tolist().execute()[0:5]


5. PyODPS节点是否支持 python 3

DataWorks 2020.05.21 新增 PyODPS 3 节点,可参考官方文档进行操作。


6.使用 PyODPS 统计表里面某个字段的空值率的时,是用 execute_sql 还是 DataFrame

DataFrame 聚合性能更高一些,所以推荐使用 DataFrame 来执行聚合操作。具体 DataFrame 如何聚合操作可参考官方文档


7. 使用 PyODPS 如何下载全量数据?

PyODPS默认不限制从 Instance 读取的数据规模。但是对于受保护的 Project,通过 Tunnel 下载数据将受限。此时,如果未设 options.tunnel.limit_instance_tunnel,则数据量限制会被自动打开,可下载的数据条数受到 Project 配置限制,通常该限制为 10000 条。如果您需要手动限制下载数据的规模,可以为 open_reader 方法增加limit 选项,或者设置 options.tunnel.limit_instance_tunnel = True


8. MaxCompute Python UDF 如何开启 Python 3

在执行 Python 3 UDF SQL 语句前增加 set odps.sql.python.version=cp37;语句一起执行,即可开启 Python 3


>>快来点击免费下载《阿里云MaxCompute百问百答》了解更多详情!<<


相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
相关文章
|
1月前
|
SQL 分布式计算 DataWorks
DataWorks常见问题之maxcompute资源打开失败如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
28天前
|
SQL 分布式计算 DataWorks
在DataWorks中,将MaxCompute的表映射成Hologres(Holo)外部表的语句
【2月更文挑战第32天】在DataWorks中,将MaxCompute的表映射成Hologres(Holo)外部表的语句
23 1
|
1月前
|
分布式计算 DataWorks 关系型数据库
DataWorks报错问题之dataworks同步rds数据到maxcompute时报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
1月前
|
数据采集 分布式计算 DataWorks
DataWorks常见问题之dataworks引用maxcompute资源失败如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
6月前
|
分布式计算 运维 监控
DataWorks如何配置MaxCompute监控进行订阅管理?
DataWorks如何配置MaxCompute监控进行订阅管理?
41 1
|
7月前
|
SQL 数据采集 分布式计算
基于DataWorks+MaxCompute的公共电影票房数据预处理实践
本次实验对春节档每日票房的数据进行预处理,主要是数据清洗(例如空值过滤,条件筛选),数据转换(例如含有相同属性的两条数据合并为一条数据)。通过本次实验让大家掌握阿里云大数据产品DataWorks及MaxCompute的基本使用。
|
3月前
|
分布式计算 DataWorks 网络安全
DataWorks中绑定MaxCompute引擎时发生了非法参数异常
【1月更文挑战第6天】【1月更文挑战第27篇】DataWorks中绑定MaxCompute引擎时发生了非法参数异常
37 3
|
4月前
|
分布式计算 DataWorks MaxCompute
PyODPS是MaxCompute的Python SDK
PyODPS是MaxCompute的Python SDK
47 2
|
4月前
|
分布式计算 DataWorks 调度
DataWorks在绑定MaxCompute并进行周期性调度前
DataWorks在绑定MaxCompute并进行周期性调度前
37 3
|
5月前
|
分布式计算 DataWorks 关系型数据库
MaxCompute支持通过DataWorks数据集成功能将其他数据源数据同步至MaxCompute
MaxCompute支持通过DataWorks数据集成功能将其他数据源数据同步至MaxCompute
36 1

热门文章

最新文章