• QQ空间
  • 回复
  • 收藏

“捉迷藏”也能学习?OpenAI 用其教会 AI 团队合作

东方头条 2019-10-11 17:29:18 游戏

图 1:OpenAI 的 AI 自己学会了如何玩捉迷藏游戏

捉迷藏的游戏自古已有之,它给无数孩子带来了无穷的童年乐趣。然而,现在这种古老游戏又在人工智能(AI)领域被赋予了新生,它不仅可以揭示很多关于 AI 如何权衡其所面临的决策问题,甚至展现了 AI 与其影响范围内的其他 AI(或称近邻)互动的方式。

总部位于美国旧金山的 AI 研究公司 OpenAI 的研究人员日前发表论文,对捉迷藏游戏在 AI 中发挥的重要作用进行了阐述。OpenAI 由特斯拉首席执行官埃隆 · 马斯克 ( Elon Musk ) 等硅谷大亨联合建立的,并得到了职业社交网站 LinkedIn 联合创始人里德 · 霍夫曼 ( Reid Hoffman ) 等名人的支持。

在最新发表的论文中,研究人员描述了大量由 AI 控制的代理如何在虚拟环境中捉迷藏的场景,并在此过程中学习利用越来越复杂的方法来躲避和寻找对方。测试结果表明,竞争中的双人 AI 代理团队的自我提高速度比任何单个代理都快。论文的共同作者说,这表明正在发挥作用的力量可以被利用,并适应其他 AI 领域,以提高效率。

今天开源的捉迷藏 AI 培训环境,加入了无数其他 OpenAI、DeepMind 和谷歌等公司为应对 AI 难题而提供的众源解决方案。去年 12 月,OpenAI 发布了 CoinRun,旨在测试强化学习代理的适应性。

最近,该机构推出了 Neural MMO,即大型强化学习模拟器,可以在类似角色扮演游戏(RPG)的世界中训练 AI 代理。在 6 月份,谷歌旗下 Google Brain 部门开源了 Research Football Environment,这是用于训练 AI 掌握足球的 3D 强化学习模拟器。DeepMind 上个月揭开了 OpenSpiel 的面纱,这是个视频游戏 AI 培训平台。

两位共同作者在这篇最新的论文中写道:" 创造能够解决各种复杂的、与人类相关任务的智能人工代理,一直是 AI 社区中的一个长期挑战。与人类特别相关的 AI 代理将是能够感知物理世界中的物体、并与之互动的代理。"

训练和玩耍

捉迷藏代理依赖于强化学习,这是一种利用奖励来推动软件政策朝着目标方向发展的技术,可以在反复试验中自我学习。近年来,与海量计算匹配的强化学习取得了巨大的成功,但也有其局限性。指定奖励函数或收集演示来监督任务可能既耗时又昂贵。最先进的方法要求对专家演示数据进行监督性学习,并使用奖励进一步提高绩效。此外,单个代理在强化任务中学习的技能受到任务描述的限制;一旦代理学会了解决任务,就没有太多改进空间了。

相反,研究人员追求的是一种他们称之为 " 无方向探索 " 的政策。在这种政策下,代理在他们对游戏世界的理解中自由进化,以设计出创造性的制胜策略。这类似于 DeepMind 科学家去年倡导的多智能体学习方法,在一项研究中,多个 AI 系统被训练为在游戏《雷神之锤 III 竞技场》 ( Quake III Arena ) 上玩 " 夺旗游戏 " ( Capture The Flag ) 。与这项研究一样,AI 代理事先没有被教授游戏规则,但他们随着时间的推移学会了基本策略,并最终在技能上超过了大多数人类玩家。

微软的 Suphx AI、OpenAI 的 OpenAI Five、DeepMind 的 AlphaStar 以及 Facebook 的 Pluribus,分别采用了类似的策略来掌握麻将、《刀塔 2》(Dota 2)、《星际争霸》(StarCraft II)以及德州扑克。

图 2:OpenAI 的 AI 在游戏中横穿地图

在捉迷藏游戏中,几个代理(隐藏者)必须在短时间内避开竞争对手的视线。在此期间,这些竞争对手被固定住,而搜索者被指示密切关注隐藏者的动向。 ( 在这里," 视线 " 是指各个代理面前的 135 度圆锥形范围。 ) 如果代理冒险离开游戏区太远,并被迫在随机生成的房间和墙壁中游荡,并会因此受到惩罚。它们可以拾取分散在环境中的目标 ( 主要是箱子 ) ,这些箱子会无限期地锁定在适当的位置。

代理们在训练过程中发现了多达六种独特的策略,每一种都能帮助它们进入下一个游戏阶段。起初,隐藏者和搜索者只是逃跑并相互追逐,但经过大约 2500 万场捉迷藏游戏之后,隐藏者学会了通过将箱子一起移动并靠墙来构建隐藏庇护所的策略。在进行另外 7500 万场比赛后,搜索者学会了移动并利用坡道跳过箱子进入避难所的方法。

再进行 1000 万场比赛后,隐藏者开始将箱子构建的坡道带到游乐区的边缘并将其锁定,以防止搜索者使用它们。最后,在总共 3.8 亿场比赛后,搜索者自学将箱子带到游戏区的边缘,并有效地利用它们冲进隐藏者的避难所中,这利用了游戏空间允许他们在不接触地面的情况下可与箱子一起移动的优势。

受过训练的代理学会了协作,例如分别将他们自己的箱子带到一个未建造好的避难所地点。此外,他们作为一个团队相互保护,试图通过在准备阶段锁定箱子来防御搜索者的 " 箱子冲浪 "。

图 3:OpenAI 的 AI 代理随着时间的推移而自我完善

研究人员表示,规模在这方面起到了关键作用。默认模型需要在 34 小时的培训中出现 1.23 亿次才能达到将技能提升到懂得 " 斜坡防御 " 的阶段,并且批量越大,培训时间越快。例如,将参数(从历史训练数据中学习的模型部分)的数量从 50 万增加到 580 万,样本效率就提高了 2.2 倍。

基准稳健性

为了评估代理的稳健性,研究人员设计了一套五项基准智力测试,分为两个领域:认知和记忆。所有测试都使用与捉迷藏环境相同的动作空间、观察空间和对象类型:

1)对象计数任务(Object Counting)衡量的是代理是否具有对象持久性的感觉,即理解事物即使在无法察觉情况下仍然存在的能力。

2)锁定和返回任务(Lock and Return),衡量代理在执行新任务时是否可以记住其原始位置。

3)在顺序锁定任务(Sequential Lock)中,四个箱子位于三个没有门但每个房间都有坡道的随机房间中,代理必须按照它们以前没有观察到的特定顺序锁定所有箱子的位置。

4)在蓝图构建任务(Construction From Blueprint)中,代理必须将箱子 ( 开放房间中的八个 ) 放置在多达四个目标位置的顶部。

5)在避难所构建任务(Shelter Construction)中,代理必须在圆柱体周围建造由箱子组成的避难所。

在五个任务的其中 3 个里,在捉迷藏环境中接受预培训的代理学习速度更快,并获得了比两个基线更高的最终回报。他们在锁定和返回任务、顺序锁定任务以及蓝图构建任务任务方面做得稍好些,但在对象计数和避难所构建方面表现较差。

图 4:这个代理在使用坡道入侵堡垒

研究人员将好坏参半的结果归咎于既 " 纠缠 " 又难以微调的技能表征。他们写道:" 我们推测,捉迷藏预培训优于基线的任务是由于重复使用学习到的特征所致,而在其余任务上优于基线的转移将需要重用学习的技能,而这要困难得多。这种评估指标强调了开发技术的必要性,以便将在一个环境中培训的策略有效低应用到另一个环境中。"

未来工作

那么,我们能从这样的研究中得到什么?简单的游戏规则、多代理竞争和大规模的标准强化学习算法可以刺激代理在没有监督的情况下学习复杂的策略和技能。

研究人员写道:" 这些设置的成功激发了人们的信心,认为这些环境最终可以使代理获得无限数量的技能。这会促使它们形成以人类相关技能为中心的行为,而不是通过其他自我监督的强化学习方法生成的技能。"

这些进步不仅仅会推动游戏设计前进。研究人员断言,他们的工作是朝着可能产生 " 物理基础 " 和 " 人类相关 " 行为的技术迈出的重要一步,并且可能支持诊断疾病、预测复杂蛋白质结构和分段 CT 扫描的系统。

Alphabet 旗下 AI 公司 DeepMind 联合创始人德米斯 · 哈萨比斯 ( Demis Hassabis ) 曾表示:" 我们的游戏 AI 是我们通向通用人工智能的垫脚石。我们进行自我测试和所有这些游戏测试的原因是,它们是我们所开发算法的便利试验场。最终,我们正在开发可以转化到现实世界中的算法,以便处理真正具有挑战性的问题,并帮助这些领域的专家。"