贾浩楠凹非寺量子位报道发_公众号QbitaI
用你的AI算法和鼠标比较,你可以获得3万美元(20万元)的奖金。
好好赚钱?你别这么想。
在实际情况下,机器学习算法一般对给定条件的任务有很好的表现,但现实情况比较复杂。例如,在迷宫或有遮蔽物的环境中寻找食物的老鼠的表现要比AI好得多。
DeepMind以动物认知测试为基础,开发人员开发了用于测试独自的AI模型的实用性的强化学习任务组Animal-AI。
前几天,Animal-AI2.0版本上线,在Github上开放。
游戏环境常用于评估AI的“能力”。
一般情况下,为了测试模型表示,给出了状态转移概率(state transferring probability)和奖励函数。
真正的世界真的是这样吗。
当然不是,但现实世界往往错综复杂,在面对复杂任务时,动物的表现往往优于AI。
例如在下图中,简单地将饮食放入透明的管中,狗将头放入管中就可以得到食物,强化学习AI完全变得愚蠢。
DeepMind研究人员开发了该测试环境,目的是通过基于动物认知的研究,使强化学习算法的开发者从动物的行为模式中得到启发,改善算法的性能。
该项目包括培训环境、培训库和900个测试和/或培训任务。900项任务从浅到深,以反映各种认知能力。
该环境使用Unity ml-agent构建。它包括一个固定尺寸的竞技场和一个训练有素的模型。
比赛场地包括正负奖励(绿色、黄色、红色球体)、障碍物、雷区、不同地形等各种物体。你的AI任务是在场上收集正激励(黄绿球)
安装教程
Animal-AI可以在Mac、Linux和Windows上运行,需要Python3。
首先安装所需的运行环境。Github项目主页提供了不同系统的环境下载。
将安装包部署到examples/env文件夹下。Linux系统可能需要先运行代码行:
chmod +x env/AnimalAI.x86_64
Animal-AI软件包包含Unity环境交互式应用程序接口,包括gym环境、扩展Unity ml-agent环境。使用以下代码安装:。
pip install animalai
项目还提供了用于使用以下代码培训模型的软件包:。
pip install animalai-train
配置环境后,在examples路径上运行。
pip install -r requirements.txt
启动jupyter notebook并运行environment和training。
测试实例
这里测试的算法是在2019年Animal-AI Olympic比赛中获得第一名的算法。
简单寻找食物的任务:
此外,在静止负激发的复杂环境中寻找食物,当AI面对复杂环境时直接夹死在场地右下角:
要移动红球(负激励),AI需要在动态环境中寻找食物:
更增加难度让环境更复杂,可以看到AI直接死在角落里:
Y型迷宫:
使用工具(在这个任务中,AI需要使用跷跷板来收集食物):
这类复杂的任务绝大多数都是人工智能无法完成的,它们不会一直围在红区,而是直接被夹在墙角致死。
低水平的动物行为测试任务,一般的AI是可以完成的,但是稍微提高一下难度,AI就会“一无是处”,直接死掉,这样一系列的任务让很多充满自信的AI开发者展翅高飞。
项目开发人员启动了Animal-AI Olympics,招募全世界的强化学习AI挑战这些任务。奖金高达3万美元,2019年比赛结束。
第一名的平均分为43.7,在回避障碍、因果推论等复杂的决策中得分较低。
主办方计划在2021年举办第二届大会,你准备好用自己的强化学习算法赢得这3万美元了吗。
传输门
项目地址:https://Github.com/beyretb/AnimalAI-Olympics
Animal-AI Olympics大赛详情:http://animalaiolympics.com/AAI/2019
推荐阅读
- 2024-05-18苹果发布iOS_iPadOS 16.4 Public Beta 3更新
- 2024-05-18参展2023CES,创维携旗下多款产品精彩亮相
- 2024-05-18打通信息化教育脉络,Cocos ICE X 金茂携手探索AI互动课件制作新疆界
- 2024-05-18超百万中国基建企业涌上钉钉
- 2024-05-18做好联想“科技瞭望塔_,构建多赢联动生态 _ 2022联想CVC创投周