个人头像照片 123ya

个人介绍

暂无个人介绍

  • 最新动态
  • 文章
  • 问答
正在加载, 请稍后...
暂无更多信息
正在加载, 请稍后...
暂无更多信息
  • 回答了问题 2019-07-17

    我以IO后计费的方式开通了MaxComput的功能,现在不想用了,现在的问题是要欠费0.01元后自动停用,交费用又自动开通。我想要停用不自动续费应该怎么办?

    大数据计算服务ODPS(按量付费)业务不再使用?所有存储的数据均以删除,全部删除释放后是不会再有费用了。

    踩0 评论0
  • 提交了问题 2017-05-15

    我以IO后计费的方式开通了MaxComput的功能,现在不想用了,现在的问题是要欠费0.01元后自动停用,交费用又自动开通。我想要停用不自动续费应该怎么办?

  • 回答了问题 2019-07-17

    ODPS,表:dim_xxxx,正在使用的时候,忽然没有了。

    您的数据是因为设置了lifecycle导致的,您设置了lifecycle后数据没有更新的,到时间后数据被收回了。

    踩0 评论0
  • 提交了问题 2017-05-15

    ODPS,表:dim_xxxx,正在使用的时候,忽然没有了。

  • 回答了问题 2019-07-17

    命令 odpscmd\bin>odpscmd -f ./script.sql; 只是运行脚本的命令,然后退出。

    目前还不支持。

    踩0 评论0
  • 提交了问题 2017-05-15

    命令 odpscmd\bin>odpscmd -f ./script.sql; 只是运行脚本的命令,然后退出。

  • 回答了问题 2019-07-17

    大概下午1点左右执行这条简单的语句, select * from xxxx  where to_char(xxx,'yyyy-mm-dd') = '2017-03-01' ;却执行了半天无法执行完成,上午这条语句大概50s就执行完成;其中没有任何其它任务在执行,请帮忙看看是什么原因,并告知。

    这个问题不会频繁出现,在公共云上的任务调度是有排队的,但是一般都是几十秒左右。

    踩0 评论0
  • 提交了问题 2017-05-15

    大概下午1点左右执行这条简单的语句, select * from xxxx  where to_char(xxx,'yyyy-mm-dd') = '2017-03-01' ;却执行了半天无法执行完成,上午这条语句大概50s就执行完成;其中没有任何其它任务在执行,请帮忙看看是什么原因,并告知。

  • 回答了问题 2019-07-17

    关于 odps.stage.* 和odps.sql.* 的设置,最好是全面的一些的,我们学习下,感谢!

    踩0 评论0
  • 提交了问题 2017-05-15

    关于 odps.stage.* 和odps.sql.* 的设置,最好是全面的一些的,我们学习下,感谢!

  • 回答了问题 2019-07-17

    使用PyODPS库运行SQL,在申请odps实例前, 通过代码设置了odps运行环境

    您好,您在客户端和py里设置的参数不一致:
    odps.stage.mapper.split.size 
     这个是py里的
    odps.sql.mapper.split.size

    踩0 评论0
  • 提交了问题 2017-05-15

    使用PyODPS库运行SQL,在申请odps实例前, 通过代码设置了odps运行环境

  • 回答了问题 2019-07-17

    用odps client跑mapreduce任务失败,报错如下,多进程后台同时起几个任务,resource文件用的是同一个,有些任务成功,有些任务失败

    问题是由并发调度的时候多次执行了add file xxx.conf -f; 这种操作导致的。
    如果文件的内容是一样的,您只需要add一次就可以了。

    踩0 评论0
  • 提交了问题 2017-05-15

    用odps client跑mapreduce任务失败,报错如下,多进程后台同时起几个任务,resource文件用的是同一个,有些任务成功,有些任务失败

  • 回答了问题 2019-07-17

    odps定时任务某个节点执行失败

    请更新一下您的access id/key信息
    https://data.aliyun.com/console/akinfo

    踩0 评论0
  • 提交了问题 2017-05-15

    odps定时任务某个节点执行失败

  • 回答了问题 2019-07-17

    你好,我们本地服务器每天采集的网站日志有10+G,然后上传至maxcompute,上传速度特别慢,请问有没有好的解决方法?谢谢!是tunnel upload,200k/s左右

    tunnel 服务端是不设限制的,不是瓶颈,唯一的瓶颈在网络带宽。
    建议您:
    1. 在华东2 ecs上,使用dt.eu13.odps.aliyun.com域名传输数据。
    2. 分区分表,在多台ecs上上传下载数据。

    踩0 评论0
  • 提交了问题 2017-05-15

    你好,我们本地服务器每天采集的网站日志有10+G,然后上传至maxcompute,上传速度特别慢,请问有没有好的解决方法?谢谢!是tunnel upload,200k/s左右

  • 回答了问题 2019-07-17

    你好,目前我们往maxcompute上传的数据都是结构的表数据,是我们在本地服务器对用户的行为日志分析后提取到的所需信息,在将这些结构化的数据上传到maxcompute。

    您可以考虑如下方案:
    1 使用日志服务收集日志,并归档到maxcompute上再做数据分析
    https://help.aliyun.com/document_detail/29001.html?spm=5176.product28958.6.648.M6KqKA
    2、使用一个String字段先存这些日志内容,然后使用SQL/MR进行解析,mapreduce只支持java语言
    3、使用maxcompute2.0的功能,日志您可以传到表格存储或者OSS:
    https://help.aliyun.com/document_detail/45389.html?spm=5176.product27797.6.557.a6CyzZ

    踩0 评论0
  • 提交了问题 2017-05-15

    你好,目前我们往maxcompute上传的数据都是结构的表数据,是我们在本地服务器对用户的行为日志分析后提取到的所需信息,在将这些结构化的数据上传到maxcompute。

正在加载, 请稍后...
滑动查看更多