开发者社区 > 大数据与机器学习 > 大数据计算 MaxCompute > 正文

在大数据计算MaxCompute中,遇到这种情况怎么做?

在大数据计算MaxCompute中,遇到这种情况怎么做?spark-sql> select count() from external_tabledd ;
10:28:20.184 [main] ERROR org.apache.spark.sql.hive.thriftserver.SparkSQLDriver - Failed in [select count(
) from external_tabledd ]
java.io.IOException: Create table read session failed.
Table identifier: taikang.default.external_tabledd.
Session status: CRITICAL.
Session id: 20240112102805c4d9c20b05fb23cd.
Error message: std::exception,20240112102805c4d9c20b05fb23c3.
at com.aliyun.odps.table.read.impl.batch.TableBatchReadSessionImpl.planInputSplits(TableBatchReadSessionImpl.java:195) ~[spark-odps-datasource-3.3.1-odps0.43.0.jar:?]
at com.aliyun.odps.table.read.impl.batch.TableBatchReadSessionBase.(TableBatchReadSessionBase.java:89) ~[spark-odps-datasource-3.3.1-odps0.43.0.jar:?]
at com.aliyun.odps.table.read.impl.batch.TableBatchReadSessionImpl.(TableBatchReadSessionImpl.java:92) ~[spark-odps-datasource-3.3.1-odps0.43.0.jar:?]
at com.aliyun.odps.table.read.impl.TableReadSessionProviderImpl.createBatchReadSession(TableReadSessionProviderImpl.java:46) ~[spark-odps-datasource-3.3.1-odps0.43.0.jar:?]
at com.aliyun.odps.table.read.TableReadSessionBuilder.buildBatchReadSession(TableReadSessionBuilder.java:180) ~[spark-odps-datasource-3.3.1-odps0.43.0.jar:?]
at org.apache.spark.sql.execution.datasources.v2.odps.OdpsScan.createPartitions(OdpsScan.scala:168) ~[spark-odps-datasource-3.3.1-odps0.43.0.jar:?]
at org.apache.spark.sql.execution.datasources.v2.odps.OdpsScan.partitions$lzycompute(OdpsScan.scala:74) ~[spark-odps-datasource-3.3.1-odps0.43.0.jar:?]
at org.apache.spark.sql.execution.datasources.v2.odps.OdpsScan.partitions(OdpsScan.scala:74) ~[spark-odps-datasource-3.3.1-odps0.43.0.jar:?]
at org.apache.spark.sql.execution.datasources.v2.odps.OdpsScan.planInputPartitions(OdpsScan.scala:178) ~[spark-odps-datasource-3.3.1-odps0.43.0.jar:?]
at org.apache.spark.sql.execution.datasources.v2.BatchScanExec.partitions$lzycompute(BatchScanExec.scala:52) ~[spark-sql_2.12-3.2.0-kylin-4.6.13.0.jar:3.2.0-kylin-4.6.13.0]
at org.apache.spark.sql.execution.datasources.v2.BatchScanExec.partitions(BatchScanExec.scala:52) ~[spark-sql_2.12-3.2.0-kylin-4.6.13.0.jar:3.2.0-kylin-4.6.13.0]
at org.apache.spark.sql.execution.datasources.v2.DataSourceV2ScanExecBase.supportsColumnar(DataSourceV2ScanExecBase.scala:93) ~[spark-sql_2.12-3.2.0-kylin-4.6.13.0.jar:3.2.0-kylin-4.6.13.0]
at org.apache.spark.sql.execution.datasources.v2.DataSourceV2ScanExecBase.supportsColumnar$(DataSourceV2ScanExecBase.scala:92) ~[spark-sql_2.12-3.2.0-kylin-4.6.13.0.jar:3.2.0-kylin-4.6.13.0]
at org.apache.spark.sql.execution.datasources.v2.BatchScanExec.supportsColumnar(BatchScanExec.scala:35) ~[spark-sql_2.12-3.2.0-kylin-4.6.13.0.jar:3.2.0-kylin-4.6.13.0]
at org.apache.spark.sql.execution.datasources.v2.DataSourceV2Strategy.apply(DataSourceV2Strategy.scala:127) ~[spark-sql_2.12-3.2.0-kylin-4.6.13.0.jar:3.2.0-kylin-4.6.13.0]
at org.apache.spark.sql.catalyst.planning.QueryPlanner.$anonfun$plan$1(QueryPlanner.scala:63) ~[spark

展开
收起
LLLA 2024-01-23 22:36:07 53 0
2 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    在大数据计算MaxCompute中,遇到这种情况可以尝试以下方法:

    1. 检查表的分区设置是否正确。如果表没有正确设置分区,可能会导致创建读取会话失败。可以使用ALTER TABLE语句来修改表的分区设置。

    2. 检查网络连接是否正常。如果网络连接不稳定,可能会导致创建读取会话失败。可以尝试重新执行查询或者等待一段时间后再次尝试。

    3. 检查MaxCompute集群的资源是否足够。如果资源不足,可能会导致创建读取会话失败。可以尝试增加集群的资源或者等待一段时间后再次尝试。

    4. 检查表的数据量是否过大。如果表的数据量过大,可能会导致创建读取会话失败。可以尝试对表进行分区或者使用其他方法来处理大量数据。

    2024-01-24 13:34:42
    赞同 展开评论 打赏
  • MaxCompute控制台这里添加一下oss的内网endpoint。image.png
    此回答来自钉群“MaxCompute开发者社区1群”

    2024-01-23 22:51:29
    赞同 展开评论 打赏

MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。

相关产品

  • 云原生大数据计算服务 MaxCompute
  • 相关电子书

    更多
    Data+AI时代大数据平台应该如何建设 立即下载
    大数据AI一体化的解读 立即下载
    极氪大数据 Serverless 应用实践 立即下载