AI:2020年6月24日北京智源大会演讲分享之强化学习专题论坛——12:10-12:40张伟楠《基于模型的强化学习:基础与前沿》

简介: AI:2020年6月24日北京智源大会演讲分享之强化学习专题论坛——12:10-12:40张伟楠《基于模型的强化学习:基础与前沿》


导读:首先感谢北京智源大会进行主题演讲的各领域顶级教授,博主受益匪浅,此文章为博主在聆听各领域教授或专家演讲时,一张一张截图进行保存,希望与大家一起学习,共同进步,一起见证或筑起人工智能的下一个十年。非常欢迎国内外人工智能领域网友,前来留言探讨与分享,同时感谢点赞或评论!

 

 

 

目录

12:10-12:40 基于模型的强化学习:基础与前沿


 

 

 

12:10-12:40 基于模型的强化学习:基础与前沿

  • 张伟楠  上海交通大学

 

 

 

相关文章
|
18小时前
|
机器学习/深度学习 数据采集 人工智能
AI(人工智能)大模型:智能新突破与挑战
在人工智能的发展历程中,我们始终追求的是大模型的智能化。这包括对复杂环境的理解力、面对未知情况的泛化能力,以及在各种情况下的适应性。这些因素是衡量一个智能模型优秀与否的关键。而提升大模型在这些方面的表现,不仅能够推动人工智能的发展,更能够拓宽其应用的范围。因此,寻找并采取有效的策略,使大模型走向更加聪明,是我们在未来人工智能发展中必须要面对和解决的重要问题。
4 0
|
2天前
|
机器学习/深度学习 人工智能 Java
Java与AI集成开发:机器学习模型部署
Java与AI集成开发:机器学习模型部署
|
4天前
|
机器学习/深度学习 人工智能 自然语言处理
模型可解释性在AI和机器学习中至关重要,尤其在金融、医疗和司法等领域。
**模型可解释性在AI和机器学习中至关重要,尤其在金融、医疗和司法等领域。它建立信任、揭示偏见、辅助错误排查和满足法规要求。方法包括使用直观模型、局部解释器(如LIME)、全局工具(如PDP、SHAP)及神经网络和注意力机制的可视化。可解释性结合领域知识和伦理,推动透明智能系统的构建。**
15 0
|
4天前
|
机器学习/深度学习 人工智能 自然语言处理
模型可解释性在AI和机器学习中至关重要,尤其在金融、医疗和司法等领域。
【6月更文挑战第28天】模型可解释性在AI和机器学习中至关重要,尤其在金融、医疗和司法等领域。它建立信任、揭示偏见、辅助错误排查和满足法规要求。方法包括使用简单模型、局部解释(如LIME)、全局解释(如PDP、SHAP)、模型可视化和注意力机制。通过跨学科研究,兼顾效率与透明度,打造可信的智能系统。
12 0
|
6天前
|
机器学习/深度学习 人工智能 算法
OpenAI发布全新AI视频模型Sora:引领视频创作新纪元
OpenAI发布全新AI视频模型Sora:引领视频创作新纪元
|
6天前
|
机器学习/深度学习 人工智能 算法
【让AI写高考AI话题作文】看各大模型的回答
【让AI写高考AI话题作文】看各大模型的回答
|
6天前
|
人工智能 自然语言处理 测试技术
巨擘之舞:探索AI大模型的发展历程与特性比较
巨擘之舞:探索AI大模型的发展历程与特性比较
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
AI大模型的核心成功因素通常可以归结为三大要素:大数据、大算力和强算法。
AI大模型的核心成功因素通常可以归结为三大要素:大数据、大算力和强算法。
24 0
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
AI大模型的核心
AI大模型的核心
18 0
|
10天前
|
机器学习/深度学习 人工智能 算法
AI - 决策树模型
决策树算法起源于古希腊的逻辑推理,20世纪在军事策略研究中首次提出。它通过构建树形模型模拟决策过程,每个节点代表一个属性判断,分支代表可能结果。ID3算法基于信息增益,C4.5则引入信息增益率,解决了ID3偏好多值属性的问题,还能处理缺失值。CART决策树适用于分类和回归任务,使用基尼系数或信息增益来选择特征。在Python的`sklearn`库中,`DecisionTreeClassifier`实现决策树分类,通过参数如`criterion`、`max_depth`等控制模型。