开发者社区 > 大数据与机器学习 > 大数据开发治理DataWorks > 正文

DataWorks数据开发与运行超过30M的资源如何上传?

DataWorks数据开发与运行超过30M的资源如何上传?

展开
收起
芯在这 2023-04-20 08:01:56 262 0
4 条回答
写回答
取消 提交回答
  • 公众号:网络技术联盟站,InfoQ签约作者,阿里云社区签约作者,华为云 云享专家,BOSS直聘 创作王者,腾讯课堂创作领航员,博客+论坛:https://www.wljslmz.cn,工程师导航:https://www.wljslmz.com

    阿里云DataWorks中,对于数据开发和运行的资源上传限制为30M。如果上传的资源大小超过了30M,可以使用以下两种方式进行上传:

    1. 使用OSS上传大文件 首先,将文件上传到阿里云OSS中,然后在DataWorks中通过OSS上传组件将文件导入到相应的项目中。具体步骤如下:

      • 第一步,将文件上传到OSS中,可以使用OSS控制台或者OSS客户端进行上传。
      • 第二步,打开DataWorks项目,找到需要上传资源的目录,使用OSS上传组件将文件从OSS中导入到DataWorks中。
    2. 将文件压缩后上传 将大文件压缩为RAR、ZIP等格式,并将压缩文件上传到DataWorks中。具体步骤如下:

      • 第一步,将文件压缩为RAR或ZIP格式。
      • 第二步,在DataWorks项目中找到需要上传资源的目录,使用上传组件上传压缩文件到DataWorks中。
      • 第三步,在DataWorks中使用解压组件将压缩文件解压缩为原始文件,并进行相应操作。
    2023-04-30 23:47:42
    赞同 展开评论 打赏
  • 如果你们dataworks底层的数据存储和计算也用的maxcomputer,可以安一个maxcomputerstudio,这样会方便很多,而且也可以在终端,直接使用add将资源上传上去

    2023-04-24 18:34:23
    赞同 展开评论 打赏
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    超过30M的资源需要通过[tunnel](使用Tunnel命令上传下载数据)上传,上传后再使用MaxCompute资源功能添加到DataWorks进行后续的资源使用操作。详情请参考常见问题:通过odpscmd上传的资源如何在DataWorks上使用

    2023-04-20 17:00:01
    赞同 展开评论 打赏
  • 超过30M的资源需要通过[tunnel](使用Tunnel命令上传下载数据)上传,上传后再使用maxcompute资源功能添加到DataWorks进行后续的资源使用操作。详情请参考常见问题:通过odpscmd上传的资源如何在DataWorks上使用?? https://help.aliyun.com/document_detail/99295.html,此回答整理自钉群“DataWorks交流群(答疑@机器人)”

    2023-04-20 12:09:39
    赞同 展开评论 打赏

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。

相关产品

  • 大数据开发治理平台 DataWorks
  • 热门讨论

    热门文章

    相关电子书

    更多
    DataWorks数据集成实时同步最佳实践(含内测邀请)-2020飞天大数据平台实战应用第一季 立即下载
    DataWorks调度任务迁移最佳实践-2020飞天大数据平台实战应用第一季 立即下载
    DataWorks商业化资源组省钱秘籍-2020飞天大数据平台实战应用第一季 立即下载

    相关实验场景

    更多