下载个汉化补丁就可以调成中文了呢。
作为一款极为经典的即时战略游戏,暴雪开发的《星际争霸II》也是强化学习训练最喜爱的训练环境之一。尤其是在2019年DeepMind开发的AlphaStar和人类职业选手的大战之后,更是引发了一波热潮。
近日,北京大学的教授发表了一篇预印本研究论文,详细介绍了一个基于《星际争霸II》训练环境的强化学习系统。作者通过将控制和微分博弈理论纳入特定的强化学习环境来分析代理人的潜在表现。
以及通过扩展当前的《星际争霸》小游戏进而开发了一个对抗性代理挑战(SAAC)的环境。主要贡献有两个方面:通过控制与博弈理论的结合,加强了对追逃博弈强化学习能力的理解;提出了一个用于追逃博弈的对抗性代理强化学习环境。
其设置逐渐复杂,并具有实际意义。背景介绍本文为追逃博弈开发了一个强化学习环境,这是一个经典但具有挑战性的问题,具有重要的航空航天应用,如同步和合作拦截和外大气层拦截以及搜索和救援行动。该问题已分别在微分博弈论和最优控制理论的分析框架下得到了广泛的研究。
然而,目前大多数研究基本上只关注一个玩家(通常是追击者)的人工智能(AI)策略,而其他玩家要么不动,要么不能被AI代理直接控制,这实际上减少了博弈的可能冲突水平。为了解决这个问题,作者开发了一个强化学习环境。
通过对著名的《星际争霸II》游戏环境的扩展,使追击-逃逸的两个角色都可以由一个单独的代理直接控制。
2024-11-25 广告