【MaxCompute 常见问题】Tunnel SDK

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 使用 Tunnel SDK 上传数据时,上传的数据可以自动分配到各个分区吗?Tunnel SDK 上传数据时,是无法自动分配到各个分区的。每一次上传只支持将数据上传到一张表或表的一个分区,有分区的表一定要指定上传的分区,多级分区一定要指定到末级分区。

Tunnel SDK


Tunnel 连接 MaxCompute 常见使用问题


1. 使用 Tunnel SDK 上传数据时,上传的数据可以自动分配到各个分区吗?

Tunnel SDK 上传数据时,是无法自动分配到各个分区的。每一次上传只支持将数据上传到一张表或表的一个分区,有分区的表一定要指定上传的分区,多级分区一定要指定到末级分区。


2. 使用 Tunnel SDK 上传数据时,编写完 UDF 打成 JAR 包后上传,对 JAR 包大小有要求吗?

JAR 包不能超过 10 MB,如果 JAR 包超过 10 MB,建议转用 MaxCompute TunnelUpload令上传数据。


3. 使用 Tunnel SDK 上传数据时,是否有分区数量限制?

最大支持 6 万个分区。分区数量过多,不方便进行统计和分析。MaxCompute 会限制单个作业中 In stance 的数量。作业的 Instance 和用户输入的数据量及分区数量是密切相关的,因此建议先评估下业务,选择合适的分区策略,避免分区过多带来的影响。


4. 使用 Tunnel SDK 上传数据时,报错 StatusConflict,如何解决?

  • 问题现象使用 Tunnel SDK 上传数据时,返回如下报错。RequestId=20170116xxxxxxx,ErrorCode=StatusConflict, ErrorMessage=You cannot complete the specified operation under the current upload or download status. java.io.IOException: RequestId=20170116 xxxxxxx, ErrorCode=StatusConflict, ErrorMessage=You cannot complete the specified operation under the current upload or download status.at com.aliyun.odps.tunnel.io.TunnelRecordWriter.close(TunnelRecordWriter.java:9)
  • 问题原因:该问题是在 Close RecordWriter 时出现的,可能原因如下。
  • 对一个已经关闭的 RecordWriter 执行了关闭操作。
  • RecordWriter 对应的 Session 已经关闭。
  • Session 已经提交过。
  • 解决措施:您可以针对上述可能出现的原因进行排查,比如打印一些日志、在提交 Session 前打印一些当前 RecordWriter 的状态与 Session 的状态。确保无上述问题后,重新尝试上传数据。


5. 使用 Tunnel SDK 上传数据时,报错 Blocks Not Match,如何解决?

  • 问题现象:使用 Tunnel SDK 上传数据时,返回如下报错。

ErrorCode=Local Error,ErrorMessage=Blocks not match, server: 0, tunnelServiceClient: 1 at com.aliyun.odps.tunnel.TableTunnel$UploadSession.commit(TableTunnel.java:814)

  • 产生原因服务器收到的 Block 个数和 Commit 时参数的个数不一致。
  • 解决措施
  • 在代码中查看 uploadSession.openRecordWriter(i)打开的 Writer个数和 Commit 时的 Block数组,确保相对应。
  • 代码中写入执行完成后,确认是否调用 recordWriter.close(); 。如果直接执行 Commit,可能导致服务器端的 Block 个数不符合预期。


6. 一次性上传 8000 万条数据,在执行 odps tunnel recordWriter.close() 时报错StatusConflict,如何解决?

  • 问题现象一次性上传 8000 万条数据,在执行 odps tunnel recordWriter.close()时,返回如下报错。ErrorCode=StatusConflict, ErrorMessage=You cannot complete the specified operation under the current upload or download status.
  • 产生原因 Session 状态错误,前面的操作里已经关闭或者提交了该 Session
  • 解决措施
  • 建议重新创建一个 Session 再上传一次数据。对于不同的分区,每个分区需要单独的一个 Session。对于多次提交导致报错,请先检查数据是否已经上传成功,如果失败,请重新上传一次,请参见多线程上传示例


7. 如何使用 TunnelBufferedWriter 规避使用 Tunnel SDK 进行批量数据上传出错的问题?

MaxCompute Java SDK 0.21.3-public 版本之后新增了 BufferredWriter SDK,简化了数据上传,并且提供了容错功能。BufferedWriter 从用户角度看,就是在 Session 上打开一个 Writer 然后进行写记录即可。具体实现是,BufferedWriter 先将记录缓存在客户端的缓冲区中,并在缓冲区填满之后打开一个HTTP 连接进行上传。

BufferedWriter 会尽最大可能容错,保证数据上传成功,使用方法请参见BufferedWriter


8. 使用 Tunnel SDK 下载数据时,报错 You need to specify a

partitionspec along with the specified table,如何解决?

  • 问题现象使用 Tunnel SDK 下载分区表数据,返回如下报错。

ErrorCode=MissingPartitionSpec, ErrorMessage=You need to specify a partitionspec along with the specified table.

  • 产生原因使用 Tunnel SDK 下载分区表数据时,需要指定分区列的列值,否则会报错。
  • 解决措施
  • 如果您使用 MaxCompute 客户端工具里的 Tunnel 命令行进行导出,客户端支持分区表整个导,其结果会导出到一个文件夹里。
  • 如果您使用 Tunnel SDK 进行导出,可以先使用 SDK 获取分区表的所有分区,命令示例如下。

odps.tables().get(tablename) t.getPartitions()


9. BlockId是否可以重复?

同一个 UploadSession中的 BlockId 不能重复。对于同一个UploadSession,用一个 BlockId 打开RecordWriter,写入一批数据后,调用 Close,写入成功后不可以再用该 BlockId 打开另一个RecordWriter 写入数据。Block默认最多 20000 个,即取值范围为 0~19999


10. Block大小是否存在限制?

每次上传至 Tunnel 的数据块大小默认为 100 MiB。一个 Block 大小上限为 100 GB,强烈建议为大于 64 MB 的数据,每一个 Block 对应一个文件,小于 64 MB 的文件统称为小文件,小文件过多将会影响使用性能。如果数量较大且是持续上传模式,Block 的数据量在 64 MB~256 MB 之间; 如果是每天传一次的批量模式,Block 可以设置为 1 GB 左右。

使用新版BufferedWriter 可以更简单地进行上传且可以避免小文件等问题,详情请参见 Tunnel-SDK-BufferedWriter


11. 遇到读写超时或 IOException 时,如何解决?

上传数据时,Writer 每写入 8 KB 数据会触发一次网络动作,如果 120 秒内没有网络动作,服务端将主动关闭连接,届时 Writer 将不可用,请重新打开一个新的 Writer 写入。

建议您使用 Tunnel-SDK-BufferedWriter

下载数据时,Reader 也有类似机制,若长时间没有网络动作会断开连接,建议 Reader 过程连续进行,中间不穿插其他系统的接口。


>>快来点击免费下载《阿里云MaxCompute百问百答》了解更多详情!<<

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
相关文章
|
3月前
|
SQL 存储 分布式计算
"SQLTask携手Tunnel:打造高效海量数据导出解决方案,轻松应对大数据挑战
【8月更文挑战第22天】SQLTask搭配Tunnel实现高效海量数据导出。SQLTask擅长执行复杂查询,但直接导出受限(约1万条)。Tunnel专注数据传输,无大小限制。二者结合,先用SQLTask获取数据,再通过Tunnel高效导出至目标位置(如CSV、OSS等),适用于大数据场景,需配置节点及连接,示例代码展示全过程,满足企业级数据处理需求。
78 2
|
4月前
|
SQL 分布式计算 大数据
MaxCompute产品使用合集之如何使用SDK获取ODPS上的资源文件
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
4月前
|
分布式计算 DataWorks Java
DataWorks操作报错合集之使用ODPS Tunnel Upload功能时,遇到报错:Java 堆内存不足,该如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
4月前
|
分布式计算 大数据 Go
MaxCompute操作报错合集之使用go sdk调用GetTunnelEndpoint出现报错:InvalidAction.NotFoundSpecified api is not found,该如何解决
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
4月前
|
分布式计算 Java 调度
MaxCompute产品使用合集之使用Tunnel Java SDK上传BINARY数据类型时,应该使用什么作为数据类字节
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
5月前
|
分布式计算 大数据 Java
MaxCompute产品使用合集之如何通过Java SDK下载
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
5月前
|
机器学习/深度学习 分布式计算 大数据
MaxCompute产品使用问题之当使用Tunnel API进行数据操作时,MaxCompute会根据什么进行相应的处理
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
5月前
|
分布式计算 大数据 数据处理
MaxCompute操作报错合集之在本地用tunnel命令上传excel表格到mc遇到报错: tunnel upload C:\Users***\Desktop\a.xlsx mc里的非分区表名 -s false;该怎么办
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
1月前
|
存储 机器学习/深度学习 分布式计算
大数据技术——解锁数据的力量,引领未来趋势
【10月更文挑战第5天】大数据技术——解锁数据的力量,引领未来趋势
|
6天前
|
存储 分布式计算 数据挖掘
数据架构 ODPS 是什么?
数据架构 ODPS 是什么?
51 7

热门文章

最新文章