PyODPS 安装常见问题解决

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:

本文将用户安装 PyODPS 时遇到的常见问题列举如下,希望在遇到类似问题时可供借鉴。在参考下列步骤之前,请首先尝试卸载并重装 PyODPS。卸载的步骤为执行“pip uninstall pyodps”。

1. Warning: XXX not installed, ......

Warning 不是 Error,Warning 不是 Error,Warning 不是 Error,重要的事情说三遍!

参考 Warning 文字,它将告诉你需要什么组件,你可以使用 pip 命令进行安装。

2. 安装后 import odps 报 no module named odps

这说明 odps package 无法被加载。这里有几种可能对的情形

  1. 安装有多个 Python 版本。这常见于 Mac 下使用 Homebrew 安装新的 Python 包(而不是系统自带的 Python),或者同时安装了 Python 2 和 Python 3,或者同时安装了 CPython 和 Anaconda / Miniconda,而当前使用的 Python 下并未安装 PyODPS。为确认此问题,请遵循下列步骤:

    1. 打开 Python 命令行;
    2. 执行 import site; print(site.getsitepackages())
    3. 检查输出的每个路径中是否存在名为“odps”的文件夹。若不存在,确认此问题。

如果问题确认,请使用命令行定位到需要安装的 Python 路径,然后执行 ./python -m pip install pyodps[full]

在 Mac / Linux 下可使用

find / -regex '.*/python[^\./-]*' 2>/dev/null

查找本机到底安装了几个 Python。

  1. Search Path(通常是当前目录)中包含一个 odps.py 或一个包含 __init__.py 的名为 odps 的文件夹。该文件可能是你自己不小心创建的,或者曾经安装过一个名为“odps”的 Python 包。对于前者,请检查后将该文件更名。对于后者,请尝试使用“pip uninstall odps”进行删除。

3. 安装后 "from odps import *" 报 cannot import name ODPS

首先需要检查当前工作路径下是否存在一个文件名为“odps.py”的文件。如果存在,请改名后再 import,否则可参照 2 中的步骤进行排查。

4. 安装后 import odps 报 cannot import module odps / odps.xxxx

这通常是由于 PyODPS 遇到了依赖问题。请联系 PyODPS 技术支持钉钉群(11701793),我们将尝试修复该问题。

尝试pip install -U jupyter可以解决此场景下的大多数问题。

5. 安装时报 Syntax Error

Python 版本过低。PyODPS 主流支持 Python 2.7.6+ / Python 3.3+,并同时支持 Python 2.6。Python 2.5 及以下版本不被支持。建议使用主流支持的版本。

6. Mac 上安装时报 Permission denied

尝试使用

sudo pip install pyodps

7. Mac 上 sudo 安装仍然报 Operation not permitted

这是由于系统完整性保护导致的。参考 http://stackoverflow.com/questions/32659348/operation-not-permitted-when-on-root-el-capitan-rootless-disabled ,重启机器,并在重启中按 ⌘+R。此后在终端中运行

csrutil disable
reboot 

此后再行安装。

8. 使用时报 sourceIP is not in the white list

存在白名单保护,可咨询 Project Owner。

9. Jupyter 前端 UI 有问题

可以尝试卸载并重新安装 jupyter、ipywidgets 以及 widgetsnbextension,也可以尝试在 bash 执行

jupyter nbextension enable pyodps/main

如有问题,PyODPS 技术支持钉钉群,群号 11701793

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
16天前
|
SQL 分布式计算 DataWorks
DataWorks产品使用合集之在依赖普通的Python脚本和开源第三方包的场景下,如何使用DataWorks PyODPS节点调用第三方包
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
44 0
|
23天前
|
分布式计算 DataWorks 大数据
MaxCompute操作报错合集之pyodps3的报错信息里,报了程序的解析错误,是什么导致的
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
23天前
|
分布式计算 DataWorks 大数据
MaxCompute操作报错合集之pyODPS导入python包的时候报错,该怎么办
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
2月前
|
分布式计算 DataWorks Java
MaxCompute操作报错合集之DataWorks中udf开发完后,报错了,如何解决
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
2月前
|
分布式计算 DataWorks 关系型数据库
MaxCompute产品使用合集之我需要在MaxCompute客户端添加Python第三方包,我该怎么操作
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
2月前
|
分布式计算 DataWorks 关系型数据库
DataWorks常见问题之pyodps报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
2月前
|
SQL 分布式计算 DataWorks
DataWorks常见问题之运行官方提供的示例报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
2月前
|
分布式计算 DataWorks MaxCompute
PyODPS是MaxCompute的Python SDK
PyODPS是MaxCompute的Python SDK
57 2
|
SQL 消息中间件 分布式计算
【MaxCompute 常见问题】 工具及下载
MaxCompute 提供了三种数据上传下载的通道: DataHub 实时数据通道:包含的工具有 OGG 插件、Flume 插件、LogStash 插件和 Fluentd 插件。 Tunnel 批量数据通道:包含的工具有 MaxCompute 客户端、DataWorks、DTS、Sqoop、Kettle 插件以及 MMA 迁移工具。 Streaming Tunnel 流式数据写入通道:支持实时计算 Flink、数据通道 DataHub、数据传输服务DTS、实时数据同步、Kafka 消息系统。
【MaxCompute 常见问题】 工具及下载
|
SQL 分布式计算 DataWorks
【MaxCompute 常见问题】 PyODPS
1. PyODPS数据类型如何设置? 如果您使用 PyODPS,可以通过下列方法打开新数据类型开关: 如果通过 execute_sql 方式打开新数据类型,可以执行 o.execute_sql('setodps.sql.type.system.odps2=true;query_sql', hints={"od ps.sql.submit.mode" : "script"})。 如果通过 Dataframe 打开新数据类型
【MaxCompute 常见问题】 PyODPS