为了学习人类Google AI "看"了几万部电影
人工智能的普及已经可以帮助甚至替代人类完成很多事情了,但是在业内一直有一个说法:"五岁以上的人类能够做的事情,机器人都能轻松胜任,但学会走路,办不到。"其实日常我们的行走的过程就是一个大脑进行精密计算的过程,只是走路整个过程太连贯我们大脑已经适应了这样的处理方式,我们便无法感知。
可行走机器人(1来自baidu)
简单来说,要AI识别人类的行为动作至今仍是一个难题,而四个月大的婴儿就能识别各种面部表情了。
Google正在让自家的AI克服这个难题,最近Google发布了新的人类动作数据库集体AVA(atomic visual actions),可以精准标注视频中的多人动作,而其学习的对象则是来自Youtube的海量视频。
YouTube视频(1来自YouTube)
在AVA的数据分析中,会对每个视频片段的每个人物动作进行识别,发现了人类的的行为往往不是单一的,从而进行学习和记录。
同时为了尽可能覆盖更大范围的人类行为,AVA的所分析的电影或剧集,采用了不同国家和类型的影片,这也可能是为了避免出现性别歧视和种族歧视。
AVA的分析数据
Google还将对外开放这一数据库,最终目的是提高AI系统的「社交视觉智能」,从而了解人类正在做什么,甚至预测人类下一步要做什么。
责任编辑:乐又
0 条 评 论 Write a Response