上头欢乐送_个人页

个人头像照片 上头欢乐送
0
6
0

个人介绍

暂无个人介绍

擅长的技术

获得更多能力
通用技术能力:

暂时未有相关通用技术能力~

云产品技术能力:

暂时未有相关云产品技术能力~

阿里云技能认证

详细说明
暂无更多信息
正在加载, 请稍后...
暂无更多信息
  • 回答了问题 2019-07-17

    请问 pai 标准化组件怎么指定附加列

    选择保留原始列就可以了
    踩0 评论0
  • 回答了问题 2019-07-17

    springBoot使用HSF的注解为何无效?还有非SpringBoot或cloud的项目能使用注解方式发布吗?

    可能是你没有扫包,hsf bean没有起来吧看一下你的入口类Application是否有下面两个注解,com.xxx.xxx是扫包范围,要比你的服务接口所在包名层级高才行@SpringBootApplication(scanBasePackages = {'com.xxx.xxx'})@EnableHSF
    踩0 评论0
  • 回答了问题 2019-07-17

    在PAI上kmeans怎么循环传聚类数K,选取最佳的聚类数?

    可以有组件分组功能里的参数循环在实验中界面中,可以点击“框选节点”选中需要合并的组件,点击某一个组件点击鼠标右键选择“合并” 弹出命名对话框,输入分组名字,注意此时只是在画布上定义了一个分组,并没有保存到'我的分组'里右击分组选择参数循环
    踩0 评论0
  • 回答了问题 2019-07-17

    dataworks 最多查询行数

    专门的数据导出需要用tunnel download。dataworks只是界面,导出太多数据,会有IO问题和数据安全问题
    踩0 评论0
  • 回答了问题 2019-07-17

    开发新手,SparkSQL有2个数据集,思想是循环嵌套求出匹配值。求其能够实现的方式。

    可以换一个解法。你原来的数据,假设是列A,和列B。各自再加上一列标签,形成两组kv键值对,比如A变成a1,1a2,1a3,1....an,1列B变成b1,2b2,2b3,2....bn,2然后将两组数据union在一起(上下合并),变成a1,1...an,1b1,2...bn,2第一列命名为key,第二列命名为value再用dataframe的groupby和agg方法data.groupBy('key').agg(countUDAF('value',1),countUDAF('value',2))这里原先的count,sum,max等聚合方法不满足你需要,你要自定义实现一个UDAF方法,统计同一个key下,有几个1,几个2
    踩0 评论0
  • 回答了问题 2019-07-17

    竞价实例和机器学习pai分不清

    机器学习需要算法、数据、计算平台的支持。pai平台提供了一个界面拖拽型的操作平台,集成了常用的机器学习算法,让用户使用机器学习的门槛降低了很多。这种方式简单,也同时让你看不到底层的细节,比如算法如何收敛,计算资源如何调度等等。一般来说,越是复杂的算法、越是大的数据量,需要越多的计算资源。通过竞价实例可以用较为低的成本获取ECS机器资源,原来获取机器学习训练过程中急需的计算资源,降低原本的使用成本。因此,如果你想在阿里云上自己搭建机器学习平台,那可以考虑竞价实例的ECS。如果你只是一个机器学习使用者,建议直接用pai平台就好
    踩0 评论0
正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息