AI:2020年6月23日北京智源大会演讲分享之机器学习专题论坛——09:45-10:25邢波教授《A Blueprint of Standardized and Composable ML》

简介: AI:2020年6月23日北京智源大会演讲分享之机器学习专题论坛——09:45-10:25邢波教授《A Blueprint of Standardized and Composable ML》


导读:首先感谢北京智源大会进行主题演讲的各领域顶级教授,博主受益匪浅,此文章为博主在聆听各领域教授或专家演讲时,一张一张截图进行保存,希望与大家一起学习,共同进步,一起见证或筑起人工智能的下一个十年。非常欢迎国内外人工智能领域网友,前来留言探讨与分享,同时感谢点赞或评论!

 

 

 

09:45-10:25 A Blueprint of Standardized and Composable Machine Learning

  • 邢波  卡内基梅隆大学机器学习系副主任

 

 

 

 

 

 

 

 

 

 

 

 

 

10:25-11:05 Geometry and Symmetry in (some!) Nonconvex Optimization Problems

  • John Wright  哥伦比亚大学教授

 

11:05-11:35 Learning Based Optimization

  • 林宙辰  北京大学教授,智源研究员

11:35-12:05 视觉计算前沿进展

  • 孙剑  旷视研究院院长,智源研究员

6月23日上午 — 决策智能专题论坛  

  • 论坛主席、主持人:徐波 中科院自动化所所长,智源研究院理事

09:00-09:10 Opening Speech

  • 徐波  中科院自动化所所长,智源研究院理事

09:10-09:50 Efficient Collaborative Multi-Agent Reinforcement Learning

  • 张崇洁  清华大学交叉信息学院

09:50-10:30 Emergent Tool Use From Multi-Agent Autocurricula

  • 吴翼  OpenAI

10:30-11:10 通信驱动的合作学习

  • 卢宗青  北京大学计算机系

11:10-11:50 StarCraft Commander: Grandmaster level Reinforcement Learning Agent Trained from Hyper Efficient AI Platform

  • 高超  启元世界

11:50-12:30 深度强化学习-从仿真到实体

  • 赵冬斌  中科院自动化所

12:30-12:40 Closing Speech


相关文章
|
2月前
|
人工智能 自然语言处理 IDE
模型微调不再被代码难住!PAI和Qwen3-Coder加速AI开发新体验
通义千问 AI 编程大模型 Qwen3-Coder 正式开源,阿里云人工智能平台 PAI 支持云上一键部署 Qwen3-Coder 模型,并可在交互式建模环境中使用 Qwen3-Coder 模型。
665 109
|
2月前
|
人工智能 Cloud Native 中间件
划重点|云栖大会「AI 原生应用架构论坛」看点梳理
本场论坛将系统性阐述 AI 原生应用架构的新范式、演进趋势与技术突破,并分享来自真实生产环境下的一线实践经验与思考。
|
2月前
|
人工智能 Cloud Native 中间件
【云栖大会】AI原生、AI可观测、AI Serverless、AI中间件,4场论坛20+议题公布!
2025 年 9 月 24 日至 26 日,杭州·云栖小镇,4 大论坛、20+ 主题分享,从云原生到 AI 原生,我们诚邀您共赴企业智能化升级浪潮之巅。
|
4月前
|
机器学习/深度学习 人工智能 监控
AI 基础知识从0.1到0.2——用“房价预测”入门机器学习全流程
本系列文章深入讲解了从Seq2Seq、RNN到Transformer,再到GPT模型的关键技术原理与实现细节,帮助读者全面掌握Transformer及其在NLP中的应用。同时,通过一个房价预测的完整案例,介绍了算法工程师如何利用数据训练模型并解决实际问题,涵盖需求分析、数据收集、模型训练与部署等全流程。文章适合初学者和开发者学习AI基础与实战技能。
628 25
AI 基础知识从0.1到0.2——用“房价预测”入门机器学习全流程
|
5月前
|
人工智能 监控 测试技术
云上AI推理平台全掌握 (1):PAI-EAS LLM服务一键压测
在AI技术飞速发展的今天,大语言模型(LLM)、多模态模型等前沿技术正深刻改变行业格局。推理服务是大模型从“实验室突破”走向“产业级应用”的必要环节,需直面高并发流量洪峰、低延时响应诉求、异构硬件优化适配、成本精准控制等复杂挑战。 阿里云人工智能平台 PAI 致力于为用户提供全栈式、高可用的推理服务能力。在本系列技术专题中,我们将围绕分布式推理架构、Serverless 弹性资源全球调度、压测调优和服务可观测等关键技术方向,展现 PAI 平台在推理服务侧的产品能力,助力企业和开发者在 AI 时代抢占先机,让我们一起探索云上 AI 推理的无限可能,释放大模型的真正价值!
|
1月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
400 29
|
1月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
454 28

热门文章

最新文章