Masato Asahara and Ryohei Fujimaki在Spark Summit 2017上做了主题为《No More Cumbersomeness--Automatic Predictive Modeling on Apache Spark》的演讲,就数据训练和预测模型预测结果等进行了深入的分享。
https://yq.aliyun.com/download/547?spm=a2c4e.11154804.0.0.10426a79C48YBJ
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
Masato Asahara和Ryohei Fujimaki在Spark Summit 2017上的演讲《No More Cumbersomeness--Automatic Predictive Modeling on Apache Spark》聚焦于如何在Apache Spark上实现预测模型的自动化构建,这对于简化数据科学家和工程师的工作流程、加速机器学习项目有着重要意义。虽然我无法直接访问外部链接或下载文件,但我可以基于阿里云的产品和服务,为您提供一些相关的应用指导和建议。
阿里云MaxCompute与Apache Spark集成:阿里云MaxCompute(原名ODPS)是一个大规模数据处理平台,它支持使用Apache Spark进行大数据分析和处理。如果您希望在阿里云上实践类似Asahara和Fujimaki讨论的自动预测建模,可以通过MaxCompute与Spark的集成来实现高效的数据处理和模型训练。
PAI (Platform of Artificial Intelligence) Studio:阿里云的PAI Studio是一个可视化的一站式机器学习开发平台,它提供了丰富的机器学习组件和工作流,支持用户无需编写大量代码就能快速构建、训练和部署机器学习模型。这与演讲中提到的“不再繁琐”理念相契合,通过PAI Studio,您可以实现从数据预处理、特征工程到模型训练、评估及部署的全链条自动化。
AutoML功能:阿里云PAI还提供了AutoML功能,能够自动选择合适的算法、优化超参数等,进一步降低了机器学习模型构建的技术门槛,使得非专业数据科学家也能轻松构建高性能模型,这与演讲主题中的“自动化预测建模”紧密相关。
E-MapReduce:对于更倾向于自定义开发和需要灵活使用Apache Spark生态的用户,阿里云的E-MapReduce服务提供了一个基于Hadoop和Spark的大数据处理解决方案。用户可以在该平台上部署和管理自己的Spark集群,进行复杂的数据处理和模型训练任务。
综上所述,阿里云提供了多种工具和服务,可以帮助用户实现类似Spark Summit演讲中讨论的自动预测建模目标,无论是通过高度集成的PAI Studio,还是通过更加灵活的MaxCompute与E-MapReduce服务,都能有效提升数据处理和机器学习项目的效率。