开发者社区> 问答> 正文

【持续更新】工单常见问题看这里!可能会有你想知道的!


  • 如何获得比赛数据

原始数据是在赛题数据来源项目里的(具体查看方式见http://bbs.aliyun.com/read/250256.html?spm=5176.bbsl254.0.0.bVYjqO),可以用sql拷贝到自己的project里,比如:
(新浪微博大赛)
create table weibo_blog_data_train as select * from tianchi_weibo.weibo_blog_data_train;
(资金流入流出大赛)
create table  user_balance_table as select * from tianchi_finance.user_balance_table;


  • MR/UDF

开发文档总入口(页面底部含常见问题和报错解答)http://www.yushanfang.com/portal/help/doc.html?spm=0.0.0.0.liavtv&file=MrUdfLocalDev
1.warehouse配置:http://www.yushanfang.com/portal/help/doc.html?spm=0.0.0.0.liavtv&file=MrUdfLocalDev#1-4-1
2.配置文件:http://www.yushanfang.com/portal/help/doc.html?spm=0.0.0.0.liavtv&file=MrUdfLocalDev#1-4-3
3.ODPS文档:http://docs.aliyun.com/?spm=5176.775975630.2.4.QdbspO#/pub/odps
4.FAQ:http://www.yushanfang.com/portal/help/doc.html?spm=0.0.0.0.liavtv&file=MrUdfLocalDev#1-6
5.常见报错:http://www.yushanfang.com/portal/help/doc.html?spm=0.0.0.0.liavtv&file=MrUdfLocalDev#1-7
   关于token:http://bbs.aliyun.com/read/259978.html
   关于新建mavenproject的问题:http://bbs.aliyun.com/read/244295.html?spm=5176.bbsl254.0.0.qPugTV
   maven项目本地运行找不到主类:http://bbs.aliyun.com/read/259818.html?spm=5176.bbsl254.0.0.EFkSPK
6. MapReduce: http://docs.aliyun.com/?spm=5176.775975630.2.4.QdbspO#/pub/odps/MapReduce/summary&mr
7.如何设置worker的个数:http://bbs.aliyun.com/read/264310.html?spm=5176.bbsl254.0.0.OuB7Dp



    



  • ODPS相关

1、关于报错“No task resources left in the project.”
1)一个队伍内同时运行的task不能超过3个;
2)task 申请的inst资源不能超过800;
3)不能超出分配的CPU和内存资源
4)查看:可以通过show p来查看正在运行的task,每个人只能看到自己的,队友的需要队友来查看
5)杀任务:如果发现某些instance是要关闭的,可以通过kill  ** 来杀掉,其中**为instanceid。



2、关于报错资源不足   Project resource cost exceeds restriction setting
1)关于资源限制: 每支队伍可使用的资源有上限,请合理使用。 在项目首页可以查看到资源使用及剩余情况。
2)task 申请的inst资源不能超过800;

3)查看:可以通过show p来查看正在运行的task,每个人只能看到自己的,队友的需要队友来查看
4)杀任务:如果发现某些instance是要关闭的,可以通过kill  ** 来杀掉,其中**为instanceid。


3、ODPS最大能有多少列:2000列。目前PAI某些算法支持输入列的字段最大总长度20480位,可以先暂时减少字段名长度。


4、WorkerRestart errCode:xxx
这个报错是因为超时导致的。分布式的odps如果子节点计算超过10分钟没和主节点发心跳的话,会被认为已经死了然后被杀掉,导致任务失败。
SQL:一般sql里出现这个问题是因为sql里存在笛卡尔积的情况(或者因为长尾数据导致的类似笛卡尔积的情况),请优化代码/对长尾数据做特殊处理
MR:一般MR里在Reduce阶段出现这个问题的可能性比较大。可以优化您的代码,使reduce里的工作减少,另外还有一个办法就是手工发心跳,就是context.progress();不过不建议发得太频繁,否则会导致性能问题。
PAI:目前简单这个问题是在GBDT算法里。目前由于算法的特殊性,GBDT是一个实例跑一棵树,如果一棵树里的数据太多会导致这个问题,需要调整算法参数。




  • ODPS里分区和分区列的区别

ODPS里的分区表需要设置至少1个分区列,分区列和普通列对应。是表的结构上的概念。
分区是分区列的值等于特定的某个值的一个情况。
举个例子:日志表,根据日期按天分区,那么分区字段ds是分区列,ds=20150101是一个分区,ds=20150102是另外一个分区。


  • 算法相关

请根据对应的算法查看对应的文档:http://www.yushanfang.com/portal/help/doc.html?spm=0.0.0.0.AjlmKa&file=SuanFaPingTai#1        
FAQ:http://www.yushanfang.com/portal/help/doc.html?spm=0.0.0.0.AjlmKa&file=SuanFaPingTai#1-2


有时候预测任务跑很慢,日志里一直在刷
predict: 2015-11-09 01:02:03 Predict_job:xxx/0/xxx[0%]
似格式的日志,可以这样排查:
先检查任务能否跑起来。先弄一两条数据跑一下预测,看有没有报错,任务能不能跑好。 如果一条数据都跑不起来,可以判断是集群的负载过高。有报错针对报错处理。
如果一条数据能跑起来,那可能是预测工作量太大导致任务一直在跑但是没跑好。比较常见的是一个多树算法,比如随机森林。可以检查:
1. 在满足需求的前提尽量减少任务的输入的数据条数(毕竟测过数据就一两条的时候能跑的)      
2. 减少模型的复杂度:          
2.1 比如减少训练的时候的树的深度
2.2 也见到一些用户使用double类型当成离散的feature来对待。这样会把出现的每个值作为一个分支,最后模型会非常大。预测的时候也要走到每个分支,导致预测非常慢。曾经见过十几万个节点的一棵树,那预测起来就超慢了。      
3.减少模型里DappendColNames里所涉及的列的个数。如果设置了DappendColNames,这些列的数据是要从源表copy到预测结果表的,如果源表很大比如有上亿行,那么这个开销是非常大的。appendColNames不是feature,是说在结果表中附加哪些列,便于方便对比。











展开
收起
凝岚 2015-10-10 12:16:43 21360 0
6 条回答
写回答
取消 提交回答
  • Re【持续更新】工单常见问题看这里!可能会有你想知道的!
    请问数加平台的预测组件可以在预测时动态添加数据么?比如把前几次的预测结果作为本次预测的特征
    2016-06-23 11:33:17
    赞同 展开评论 打赏
  • 回 6楼(侯奇) 的帖子
    亲,你配置时填的工作目录/文件夹存在吗?
    http://setting.tenant.yushanfang.com/portal/help/doc.html


    idePath - 程序将要上传到IDE的哪个工作目录下,需要工作目录已经在IDE中创建好,例如“工作流/myfolder”




    这里的idePath,即:当Maven项目开发完,在eclipse直接提交后,提交的节点和对应源代码就会自动在IDE 的该目录下创建。

    -------------------------

    回 8楼(侯奇) 的帖子
    亲,你用的什么浏览器?,建议chrome浏览器;
    另外maven插件是装好了的吗?建议下载3.2.5 版本。
    2015-12-03 10:03:09
    赞同 展开评论 打赏
  • Re【持续更新】工单常见问题看这里!可能会有你想知道的!

    在配置本地化MR时,添加Arthetype Catalog 出现问题。提示Remote catalog is empty?

    -------------------------

    回 6楼侯奇的帖子
    上面一步“添加base arthetype”操作无法进行,我还没有走到这一步呢。我该怎么做呢

    -------------------------

    回 9楼秋涵的帖子
    已找到问题,Ubuntu 默认使用的eclipse版本太低,换用高版本的eclipse后,没有任何问题。
    2015-12-02 10:04:29
    赞同 展开评论 打赏
  • 回3楼moye14的帖子
    我也出现这个问题啊。。。。。这个要怎么改呢?

    -------------------------

    回 4楼克隆牛的帖子
    已解决
    2015-11-06 13:50:43
    赞同 展开评论 打赏
  • 运行默认程序,报java.lang.ArithmeticExceptionbyzero
    按照文档 搭建 环境 ,运行默认的分词程序,出现 java .lang.RuntimeException: java.lang.ArithmeticException: / by zero Exception in thread "main" java.lang.RuntimeException: java.lang.ArithmeticException: / by zero     at com.aliyun.odps.mapred.LocalJobRunner.submit(LocalJobRunner.java:94)     at com.aliyun.odps.mapred.JobClient.submitJob(JobClient.java:157)     at com.aliyun.odps.mapred.JobClient.runJob(JobClient.java:60)     at my.test.JobLauncher.main(JobLauncher.java:480) Caused by: java.lang.ArithmeticException: / by zero     at com.aliyun.odps.mapred.local.MapOutputBuffer.getPartition(MapOutputBuffer.java:102)     at com.aliyun.odps.mapred.local.MapOutputBuffer.add(MapOutputBuffer.java:106)     at com.aliyun.odps.mapred.local.MapDriver$ProxiedMapContextImpl$CombinerContextImpl.write(MapDriver.java:231)     at my.test.MyCombiner.reduce(MyCombiner.java:30)     at com.aliyun.odps.mapred.local.MapDriver$ProxiedMapContextImpl.close(MapDriver.java:274)     at com.aliyun.odps.mapred.local.MapDriver.run(MapDriver.java:317)     at com.aliyun.odps.mapred.LocalJobRunner.handleNonPipeMode(LocalJobRunner.java:234)     at com.aliyun.odps.mapred.LocalJobRunner.runJob(LocalJobRunner.java:113)     at com.aliyun.odps.mapred.LocalJobRunner.submit(LocalJobRunner.java:91)     ... 3 more 没改过程序。

    -------------------------

    回2楼moye14的帖子
    已解决哈。。改("yyyymmdd")
    2015-10-19 23:22:12
    赞同 展开评论 打赏
  • 解决方案工程师,负责为企业规划上云迁移方案和云上架构设计,在网站建设开发和云计算领域有多年经验,专注于Linux平台的系统维护以及应用部署。致力于以场景化的方式让云计算,用更加通俗易懂的方式让更多人体验云计算,让云端的计算更质朴的落地。
    是有必要整理一下
    2015-10-10 12:39:38
    赞同 展开评论 打赏
滑动查看更多
问答排行榜
最热
最新

相关电子书

更多
玩转《阿里巴巴开发手册》P3C插件-云效在线扫描 立即下载
4.29【阿里云5大安全产品全面升级在线发布-会后分享文档】 立即下载
DTS控制台一本通 立即下载