开发者社区> 问答> 正文

在问题建模中,为什么引入了强化学习,而不是有监督的学习?

在问题建模中,为什么引入了强化学习,而不是有监督的学习?

展开
收起
罗鹏大佬 2021-12-14 18:56:48 763 0
1 条回答
写回答
取消 提交回答
  • 在这里我们引入了强化学习,而不是有监督的学习去训练,因为:

    1)去创建有 label 的样本很难 32 个样本 256B,理论上 sample 有 256^256 种可能性,对每个这种样本,需要遍历 300K 的可能性才能找出最好的那一个。创建及选择 sample,create label 的工作量都非常大。

    2)这不是普通的 one-class-label 问题 给定一个样本,并不是有唯一的最好的一个结果,很有可能很多的选择都能取得相同的压缩效果,N class(N 基本不可知)的训练又增加了很多难度。

    3)需要一种自动化的方法 压缩的 tool 等参数选择很有可能是需要扩展的,如果发生整个训练样本的创建等都需要重新再来。需要一种自动化的办法。

    用什么样的强化学习呢?DQN,policy gradient,还是 actor-critic? 如前面分析,DQN 是不太适合 reward/action 不连续的的情况,这里的参数,譬如 majorMode 0 和 1 是完全不同的两种结果,所以 DQN 不合适。此外,压缩问题一方面不容易评价另外网络也没有那么复杂,不需要 actor-critic。最终我们选择了 policy gradient。

    Policy gradient 常见的 loss 是用一个慢慢提高的 baseline 作为衡量标准来反馈当前的 action 是否合适,但这里并不太合适(效果尝试了也不太好),因为这里 sample 的理论 block(256^256)state 太多了一些。为此,我们专门设计了一个 loss。得到了每个 block 的参数后,考虑到 block 的相关性等。可以用统计的办法,聚合得到整个 timeline 的最终参数设置。

    2021-12-14 19:01:53
    赞同 展开评论 打赏
来源圈子
更多
收录在圈子:
+ 订阅
关于阿里的机器智能创新技术均呈现于此.
问答排行榜
最热
最新

相关电子书

更多
弱监督机器学习范式 立即下载
纯干货|机器学习中梯度下降法的分类及对比分析 立即下载
纯干货 | 机器学习中梯度下降法的分类及对比分析 立即下载