PyODPS 安装常见问题解决

简介:

本文将用户安装 PyODPS 时遇到的常见问题列举如下,希望在遇到类似问题时可供借鉴。在参考下列步骤之前,请首先尝试卸载并重装 PyODPS。卸载的步骤为执行“pip uninstall pyodps”。

1. Warning: XXX not installed, ......

Warning 不是 Error,Warning 不是 Error,Warning 不是 Error,重要的事情说三遍!

参考 Warning 文字,它将告诉你需要什么组件,你可以使用 pip 命令进行安装。

2. 安装后 import odps 报 no module named odps

这说明 odps package 无法被加载。这里有几种可能对的情形

  1. 安装有多个 Python 版本。这常见于 Mac 下使用 Homebrew 安装新的 Python 包(而不是系统自带的 Python),或者同时安装了 Python 2 和 Python 3,或者同时安装了 CPython 和 Anaconda / Miniconda,而当前使用的 Python 下并未安装 PyODPS。为确认此问题,请遵循下列步骤:

    1. 打开 Python 命令行;
    2. 执行 import site; print(site.getsitepackages())
    3. 检查输出的每个路径中是否存在名为“odps”的文件夹。若不存在,确认此问题。

如果问题确认,请使用命令行定位到需要安装的 Python 路径,然后执行 ./python -m pip install pyodps[full]

在 Mac / Linux 下可使用

find / -regex '.*/python[^\./-]*' 2>/dev/null

查找本机到底安装了几个 Python。

  1. Search Path(通常是当前目录)中包含一个 odps.py 或一个包含 __init__.py 的名为 odps 的文件夹。该文件可能是你自己不小心创建的,或者曾经安装过一个名为“odps”的 Python 包。对于前者,请检查后将该文件更名。对于后者,请尝试使用“pip uninstall odps”进行删除。

3. 安装后 "from odps import *" 报 cannot import name ODPS

首先需要检查当前工作路径下是否存在一个文件名为“odps.py”的文件。如果存在,请改名后再 import,否则可参照 2 中的步骤进行排查。

4. 安装后 import odps 报 cannot import module odps / odps.xxxx

这通常是由于 PyODPS 遇到了依赖问题。请联系 PyODPS 技术支持钉钉群(11701793),我们将尝试修复该问题。

尝试pip install -U jupyter可以解决此场景下的大多数问题。

5. 安装时报 Syntax Error

Python 版本过低。PyODPS 主流支持 Python 2.7.6+ / Python 3.3+,并同时支持 Python 2.6。Python 2.5 及以下版本不被支持。建议使用主流支持的版本。

6. Mac 上安装时报 Permission denied

尝试使用

sudo pip install pyodps

7. Mac 上 sudo 安装仍然报 Operation not permitted

这是由于系统完整性保护导致的。参考 http://stackoverflow.com/questions/32659348/operation-not-permitted-when-on-root-el-capitan-rootless-disabled ,重启机器,并在重启中按 ⌘+R。此后在终端中运行

csrutil disable
reboot 

此后再行安装。

8. 使用时报 sourceIP is not in the white list

存在白名单保护,可咨询 Project Owner。

9. Jupyter 前端 UI 有问题

可以尝试卸载并重新安装 jupyter、ipywidgets 以及 widgetsnbextension,也可以尝试在 bash 执行

jupyter nbextension enable pyodps/main

如有问题,PyODPS 技术支持钉钉群,群号 11701793

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
1月前
|
消息中间件 分布式计算 DataWorks
DataWorks常见问题之dataworks中lasticseatch8.9和logstash版本兼容问题如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
1月前
|
SQL 分布式计算 DataWorks
DataWorks常见问题之dataworks自定义函数运行时报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
1月前
|
分布式计算 DataWorks 关系型数据库
DataWorks常见问题之第三方Python依赖包使用失败如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
1月前
|
分布式计算 DataWorks 关系型数据库
DataWorks常见问题之pyodps报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
38 6
|
1月前
|
SQL 分布式计算 DataWorks
DataWorks常见问题之运行官方提供的示例报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
26 0
|
1月前
|
DataWorks NoSQL 关系型数据库
DataWorks常见问题之数据下载形成接口如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
34 2
|
11月前
|
SQL 存储 分布式计算
MaxCompute 的UDF函数如何批量从一个开发环境注册到生产环境
MaxCompute 的UDF函数如何批量从一个开发环境注册到生产环境
111 0
|
SQL 消息中间件 分布式计算
【MaxCompute 常见问题】 工具及下载
MaxCompute 提供了三种数据上传下载的通道: DataHub 实时数据通道:包含的工具有 OGG 插件、Flume 插件、LogStash 插件和 Fluentd 插件。 Tunnel 批量数据通道:包含的工具有 MaxCompute 客户端、DataWorks、DTS、Sqoop、Kettle 插件以及 MMA 迁移工具。 Streaming Tunnel 流式数据写入通道:支持实时计算 Flink、数据通道 DataHub、数据传输服务DTS、实时数据同步、Kafka 消息系统。
【MaxCompute 常见问题】 工具及下载
|
SQL 分布式计算 DataWorks
【MaxCompute 常见问题】 PyODPS
1. PyODPS数据类型如何设置? 如果您使用 PyODPS,可以通过下列方法打开新数据类型开关: 如果通过 execute_sql 方式打开新数据类型,可以执行 o.execute_sql('setodps.sql.type.system.odps2=true;query_sql', hints={"od ps.sql.submit.mode" : "script"})。 如果通过 Dataframe 打开新数据类型
【MaxCompute 常见问题】 PyODPS
|
SQL 存储 移动开发
【MaxCompute 常见问题】 常用命令
如何查看当前项目空间的所有自定义函数? 查看当前项目空间中的所有自定义函数:LIST FUNCTIONS; 查看指定项目空间下的所有自定义函数:LIST FUNCTIONS -p project_name;
【MaxCompute 常见问题】 常用命令