谷歌正在教AI学习人类的拥抱、烹饪和打架动作

人工智能最近又有了了解人类的最新素材。

众所周知,谷歌早前收购了视频网站YouTube。而本月19号,谷歌公布了一套电影剪辑数据集,该数据集叫做AVA(原子视觉行动),专门用来教机器学习人类的动作。


谷歌正在教AI学习人类的拥抱、烹饪和打架动作_第1张图片

AVA里的视频对人类来说并无特别之处,都是YouTube上的一些三秒视频剪辑,拍摄了人的喝水和烹饪动作。

但是,每段视频剪辑都捆绑了一份文件,概述了机器学习算法应该观察视频里的哪个人。该文件还描述了这些人的姿势,以及他们是否在和其他人或物进行互动。这就像我们在现实中指着一条狗,教小孩学习「狗」这个单词,AVA就是电子版本的看物教学。

当视频中不止有一个人在做动作时,系统就会给每个人添加标签。这样一来,算法就能了解:两个人就需要握手。

这项技术可以帮助谷歌分析YouTube每天处理的视频。它可以基于你是否在浏览一段人们谈话或斗殴的视频,来做更精准的广告投放。此外,这项技术也有助于视频内容审核。

在研究论文中,作者们指出,AVA的最终目的是教会计算机学习社交上的眼力劲儿,「了解人类正在干嘛,接下来可能要干嘛,以及他们想达成什么目的。」

AVA数据集拥有 57,600 个标签化视频,标记了 80 个细节动作。至于站立、讲话、听和走等简单动作则在数据集中出现了更多次,有一万多个标签。研发团队表示,采用电影中的视频剪辑也为他们的工作带来了一些偏差,因为荧幕动作有时候会很戏剧化。

「我们并不认为这个数据是完美的,但是比起用户生成的五花八门的内容,像萌宠视频、DIY教学视频、儿童生日聚会视频等等,电影视频剪辑确实是更好的数据素材。」

——————————————

文章采集自互联网,版权问题请与我们取得联系。

SaaSPad (www.saaspad.com) 是专注AI/BI/ML领域的科技网站,我们分享国内外的成功理论和经验,建立行业人士交流探讨的社区,欢迎访问官网。

你可能感兴趣的:(谷歌正在教AI学习人类的拥抱、烹饪和打架动作)