开发者社区> 问答> 正文

Jupyter上的pyspark内核生成“未找到spark”错误

我有几个pyspark内核jupyter笔记本已经工作了几个月 - 但最近不再工作了。在pyspark本身工作的内核:它提供了蓝色的消息:

Kernel Loaded

..我们可以看到内核可用:

在此处输入图像描述

但我在jupyter日志中注意到了这一点:

[IPKernelApp]警告| 处理PYTHONSTARTUP文件/shared/spark/python/pyspark/shell.py时出现未知错误:

当我们尝试做一些工作时,spark我们得到:

---> 18 df = spark.read.parquet(path)

 19     if count: p(tname + ": count="+str(df.count()))
 20     df.createOrReplaceTempView(tname)

NameError: name 'spark' is not defined
没有进一步的信息。

注意:使用的scalaspark内核toree能够通过镶木板成功读取同一个文件(并实际使用相同的代码)

那么jupyter pyspark内核可能会发生什么呢?

展开
收起
社区小助手 2018-12-12 14:14:48 2906 0
1 条回答
写回答
取消 提交回答
  • 确定运行 jupyter notebook 的 Python 环境正确 import 了 pyspark 。

    2019-07-17 23:20:11
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载