问题一:机器学习PAI的“调度依赖”怎么选择已创建的user表和item表?
机器学习PAI的“调度依赖”怎么选择已创建的user表和item表?
参考答案:
这个主要是是给上线用的,你真正上线的时候后台会有调度的 user 表 和 item 表。这里只是示例的话就暂时不需要走这个调度的设置了。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/592864
问题二:在机器学习PAI中的alink中不支持的算法 如果想扩展 该如何实现呢?
麻烦问下 alink中不支持的算法 如果想扩展 该如何实现呢?是不是必须动底层代码?应该不能用udf之类的来实现吧,我看udf只是支持固定的几种参数 而且是针对数据库的
参考答案:
支持写UDF的,参考这两篇中的示例代码:https://alinklab.cn/tutorial/book_java_06.html , https://alinklab.cn/tutorial/book_python_06.html
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/591876
问题三:机器学习PAI有在Yitian上推理LLM的方案吗?
机器学习PAI有在Yitian上推理LLM的方案吗?
参考答案:
机器学习PAI有在Yitian上推理LLM的方案。
阿里云机器学习平台PAI提供了BladeLLM,这是一个大模型推理引擎,专门用于部署高性能、低成本的大语言模型服务。BladeLLM对LLM推理和服务的全链路进行了深度优化,以确保用户能够轻松地在Yitian等平台上运行大型语言模型。此外,阿里云还支持EAS(弹性计算服务),用户可以在EAS上快速拉起第三方的开源大模型文件,如Qwen、Llama2、ChatGLM等,并且可以在短短5分钟内一键部署这些模型。
值得一提的是,阿里云机器学习平台PAI还针对Llama2系列模型进行了适配,推出了全量微调、Lora微调、推理服务等场景的最佳实践,帮助AI开发者快速开始使用这些模型。对于端侧部署,基于MNN实现的mnn-llm项目已经展现出业界领先的性能,特别是在ARM架构的CPU上,这意味着在移动设备或边缘计算设备上进行LLM推理也是可行的。
综上所述,阿里云机器学习平台PAI为用户提供了一套完整的解决方案,以在Yitian上推理LLM,包括优化的推理引擎、快速部署工具和最佳实践指南,以满足不同场景下的需求。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/591626
问题四:想问下机器学习PAI这个单调性的分箱是指?
想问下机器学习PAI这个单调性的分箱是指?binningMethod 选择auto,还如何quantile模式呢?
参考答案:
文档可能描述的有些不准确,auto自动分箱是一种动态规划的算法,会尽可能使得分箱结果中的各个分箱的WOE值保持单调 ,
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/591625
问题五:机器学习PAI这个需要主账号开通这个区域吗?
机器学习PAI这个需要主账号开通这个区域吗?
参考答案:
对的,有PaiFullAccess的子账号也行
关于本问题的更多回答可点击进行查看: