贾浩楠凹非寺量子位报道发_公众号QbitaI

用你的AI算法和鼠标比较,你可以获得3万美元(20万元)的奖金。

好好赚钱?你别这么想。

在实际情况下,机器学习算法一般对给定条件的任务有很好的表现,但现实情况比较复杂。例如,在迷宫或有遮蔽物的环境中寻找食物的老鼠的表现要比AI好得多。

DeepMind以动物认知测试为基础,开发人员开发了用于测试独自的AI模型的实用性的强化学习任务组Animal-AI。

前几天,Animal-AI2.0版本上线,在Github上开放。

AI算法:我不如狗

游戏环境常用于评估AI的“能力”。

一般情况下,为了测试模型表示,给出了状态转移概率(state transferring probability)和奖励函数。

真正的世界真的是这样吗。

当然不是,但现实世界往往错综复杂,在面对复杂任务时,动物的表现往往优于AI。

例如在下图中,简单地将饮食放入透明的管中,狗将头放入管中就可以得到食物,强化学习AI完全变得愚蠢。

DeepMind研究人员开发了该测试环境,目的是通过基于动物认知的研究,使强化学习算法的开发者从动物的行为模式中得到启发,改善算法的性能。

该项目包括培训环境、培训库和900个测试和/或培训任务。900项任务从浅到深,以反映各种认知能力。

该环境使用Unity ml-agent构建。它包括一个固定尺寸的竞技场和一个训练有素的模型。

比赛场地包括正负奖励(绿色、黄色、红色球体)、障碍物、雷区、不同地形等各种物体。你的AI任务是在场上收集正激励(黄绿球)

安装教程

Animal-AI可以在Mac、Linux和Windows上运行,需要Python3。

首先安装所需的运行环境。Github项目主页提供了不同系统的环境下载。

将安装包部署到examples/env文件夹下。Linux系统可能需要先运行代码行:

chmod +x env/AnimalAI.x86_64

Animal-AI软件包包含Unity环境交互式应用程序接口,包括gym环境、扩展Unity ml-agent环境。使用以下代码安装:。

pip install animalai

项目还提供了用于使用以下代码培训模型的软件包:。

pip install animalai-train

配置环境后,在examples路径上运行。

pip install -r requirements.txt

启动jupyter notebook并运行environment和training。

测试实例

这里测试的算法是在2019年Animal-AI Olympic比赛中获得第一名的算法。

简单寻找食物的任务:

此外,在静止负激发的复杂环境中寻找食物,当AI面对复杂环境时直接夹死在场地右下角:

移动红球(负激励),AI需要在动态环境中寻找食物:

更增加难度让环境更复杂,可以看到AI直接死在角落里:

Y型迷宫:

使用工具(在这个任务中,AI需要使用跷跷板来收集食物):

这类复杂的任务绝大多数都是人工智能无法完成的,它们不会一直围在红区,而是直接被夹在墙角致死。

低水平的动物行为测试任务,一般的AI是可以完成的,但是稍微提高一下难度,AI就会“一无是处”,直接死掉,这样一系列的任务让很多充满自信的AI开发者展翅高飞。

项目开发人员启动了Animal-AI Olympics,招募全世界的强化学习AI挑战这些任务。奖金高达3万美元,2019年比赛结束。

第一名的平均分为43.7,在回避障碍、因果推论等复杂的决策中得分较低。

主办方计划在2021年举办第二届大会,你准备好用自己的强化学习算法赢得这3万美元了吗。

传输

项目地址:https://Github.com/beyretb/AnimalAI-Olympics

Animal-AI Olympics大赛详情:http://animalaiolympics.com/AAI/2019