【AlphaHoldem】端到端强化学习玩德州扑克

简介: 【AlphaHoldem】端到端强化学习玩德州扑克

所解决的问题?

Heads-up no-limit Texas hold’em (HUNL)864核跑无限注德州扑克达到人类水平。有点类似DouZero单机上达到人类水平。

背景

HUNL初始时,两名玩家会发两张盖牌。之后还有、翻牌、转牌、河牌、比牌。翻牌是三张,转牌一张,河牌一张。需要评估能够组成的5张牌中最大的。

动作空间有:过牌(check),跟注(call),加注(raise),弃牌(fold)。

五张牌的大小比较有:

DeepStackLibratus都是做完abstract之后再接CFR类算法,但是CFR这类偏遍历的方式算起来计算资源的开销太大了。但是AlphaHoldem只在8卡的GPU上64CPU核上训练了三天。

所采用的方法?

作者设计了一个伪孪生网络的结构(pseudo-Siamese),直接从输入学习输出的动作分布。除此之外,作者在状态表征、训练的loss、模型策略方面也都做了改进。

整体的网络结构如上图所示:输入是动作信息和卡牌信息的状态表征。送入到顶部和底部的孪生网络结构中。作者期望两个卷积网络能够学习不同的信息表征。由此还提出了一种新的loss函数Trinal-Clip Lossself-play的时候也是选取的历史最佳的k个。整体设计就是这样,具体细节可以归功于三个方面:状态表征、Loss设计、Self-Play的模型选择。

高效的状态表征

card的信息就是六个通道,2张底牌、3张公共牌、1张转牌、1张河牌。每个通道是4x13的矩阵,1表示有这张牌(这里是考虑了花色的)。

对于动作信息,每个通道是4 × n b 的矩阵,4分别表示玩家1的动作、玩家2的动作、两家动作之和、合法动作。总共最多会有4次下注,每次下注最多会有6个下注动作。所以总共是24 × 4 × n b种情况。


Trinal-Clip损失函数

image.png


这三种loss的效果对比如下:

有效的模型选择和生成

简单的自博弈算法容易陷入循环克制的问题中,不容易收敛。AlphaStar的群体博弈(PBT),神经虚拟自博弈(NFSP)需要的资源开销比CFR的开销还要大。

AlphaHoldem采用了一种新型的Best-K自博弈方法。该方法通过在训练过程中测试历史模型的性能,挑选出K个最好的模型与现在最新的模型对打,不断通过强化学习提升自身性能。

总共8.6milion的参数,1.8milion的卷积参数,6.8milion的全连接参数。

取得的效果?

所出版信息?作者信息?

一作是中科院博士生赵恩民,导师兴军亮。论文是AAAI的卓越论文。

参考链接

相关文章
|
21天前
|
机器学习/深度学习 人工智能 分布式计算
蚁群、蜂群的智慧,大模型也可以有,谷歌等机构群体智能研究亮相
蚁群和蜂群以其独特的群体智能行为著称,如分布式决策、自组织性和鲁棒性。这些特性启发了科学家将群体智能原理应用于大模型的构建,以实现更高效、更智能的系统。谷歌等机构已通过模拟这些行为,开发出如“蚁群优化”算法等成果,显著提高了计算效率和系统的鲁棒性。然而,群体智能的应用仍面临通信协调、个体差异性和可解释性等挑战。
23 3
|
机器学习/深度学习 人工智能 编解码
DeepFake换头术升级:浙大新模型,GAN出一头秀发
DeepFake换头术升级:浙大新模型,GAN出一头秀发
298 0
|
机器学习/深度学习 人工智能 算法
【强化学习炼金术】李飞飞高徒范麟熙解析强化学习在游戏和现实中的应用
斯坦福大学博士生、师从李飞飞教授的Jim Fan(范麟熙)以轻松有趣的方式介绍了强化学习和游戏渊源以及强化学习在现实生活中的应用:机器人、World of Bits、金融、广告业、环境和能源等等。
5628 0
|
机器学习/深度学习 人工智能 算法
AI搞了半天只是曲线拟合?贝叶斯网络之父力荐因果关系应用
作者 | Kurt Marko译者 | 核子可乐 AI 前线导读: 人工智能只是优秀的曲线拟合?近两年,关于这一观点的讨论从未停止,图灵奖获得者、贝叶斯网络之父 Judea Pearl 也参与其中,他一直自嘲自己是 AI 社区的反叛者,认为由于人类对智能的真正含义不完全理解而阻碍了人工智能的发展,他曾经在多个场合表达过这样的观点:人工智能领域的技术水平只不过是上一代机器已有功能的增强版——在大量数据中发现隐藏的规律性,所有令人印象深刻的深度学习成果都只是曲线拟合。
AI搞了半天只是曲线拟合?贝叶斯网络之父力荐因果关系应用
|
机器学习/深度学习 人工智能 定位技术
【DOTA之后新里程碑】DeepMind强化学习重大突破:AI在多人射击游戏完胜人类!
继OpenAI之后,DeepMind也在多智能体强化学习方面秀肌肉:首次在第一人称射击游戏的多人模式中完胜人类,而且没有使用大量训练局数,轻松超过了人类水平。
1887 0
|
机器学习/深度学习 移动开发 数据可视化
使用机器学习预测电子竞技游戏《守望先锋》的胜负
机器学习可以预测游戏的输赢?来看看Bowen Yang博士是如何构建这一模型的。
2477 0
|
机器学习/深度学习 人工智能 算法
关于强化学习你应该了解的五件事儿
本文主要是讲解了机器学习中的强化学习方法的基本原理,常用算法及应用场景,最后给出了学习资源,对于初学者而言可以将其作为入门指南。
5246 0