他们推出了一项面向公众的新工具
谷歌,在尝试用拥有DeepMindAI的机器人Go吊打人类玩家之后,又在去年秋季把他的计算机智能装到了暴雪的视频游戏星际争霸II上。这看上去更像是一种炫技:如今,在训练AI玩星际战略游戏上,谷歌开发出了一整套的研究体系,并向公众开放。每个人都能通过DeepMind的新工具集(SC2LE)来对AI做出改进以减轻他们的研究工作。
这个工具包囊括了GitHub上的许多开发包:首先就是暴雪的机器学习API,其最初是一个Linux工具,最后发展成了名为PySC2的DeepMind工具集。暴雪还提供了一些额外的好玩意,像一系列匿名的1V1游戏对战回放供程序员分析,还有一些示例代码与演示机器人。DeepMind同样提供了一份参考白皮书。
为什么是星际争霸II?DeepMind公布了原因,在你按序思考需要作出多少种选择时,任何时刻都会有上百万种可能采取的策略。这就给你的AI训练提供了大量的可能性:
“星际争霸的行动池展现了一个挑战,甚至能做出的基本行动种类就超过了300种。跟一些Atari游戏相比,那些游戏只有大概十种操作(比如说上下左右等等)。基于此,星际争霸中的行动是分层的,它能够自定义,能够强化,很多行动都需要在屏幕上进行点击。就算以一块84x84的小屏幕来说,也大概会有100万种可能采取的行动。”