李飞飞TED演讲:如何教计算机理解图片?

广问AI新闻社讯     计算机视觉专家李飞飞在TED演讲介绍了她的团队为了"教"计算机理解图片,所建立的一千五百万照片的数据库,这是计算机科学领域最前沿的、具有革命性潜力的科技。


广问AI资讯:李飞飞:我们怎么教计算机理解图片_腾讯视频

我们拥有自动驾驶功能的原型车,却没有敏锐的视觉,真正区分出地上摆着纸袋还是石头。我们已经造出了超高清的相机,但我们仍然无法把这些画面传递给盲人。我们的无人机可以飞跃广阔的土地,却没有足够的视觉技术去帮我们追踪热带雨林的变化。安全摄像头到处都是,但当有孩子在泳池里溺水时它们无法向我们报警。足以证明,我们最智能的机器依然有视觉上的缺陷。

照相机获得照片是通过采集到的光线转换成二维数字矩阵来存储——也就是“像素”,但这些仍然是死板的数字。它们自身并不携带任何意义。就像听到“和”“听”完全不同,“拍照”和“看”也完全不同。通过“看”,我们实际上是“理解”了这个画面。事实上,大自然经过了5亿4千万年的努力才完成了这个工作,而这努力中更多的部分是用在进化我们的大脑内用于视觉处理的器官,而不是眼睛本身。所以“视觉”从眼睛采集信息开始,但大脑才是它真正呈现意义的地方。

我们的研究领域叫做"计算机视觉与机器学习"。这是AI(人工智能)领域的一个分支。最终,我们希望能教会机器像我们一样看见事物:识别物品、辨别不同的人、推断物体的立体形状、理解事物的关联、人的情绪、动作和意图。像你我一样,只凝视一个画面一眼就能理清整个故事中的人物、地点、事件。

实现这一目标的第一步是教计算机看到“对象”(物品),这是建造视觉世界的基石。通过与普林斯顿大学的Kai Li教授合作,我们在2007年发起了ImageNet(图片网络)计划。我们运用了互联网,这个由人类创造的最大的图片宝库。我们下载了接近10亿张图片并利用众包技术(利用互联网分配工作、发现创意或解决技术问题),像“亚马逊土耳其机器人”这样的平台来帮我们标记这些图片。在2009年,ImageNet项目诞生了——一个含有1500万张照片的数据库,涵盖了22000种物品。这些物品是根据日常英语单词进行分类组织的。无论是在质量上还是数量上,这都是一个规模空前的数据库。

现在,我们有了用来培育计算机大脑的数据库,我们回归“算法”本身。因为ImageNet的横空出世,它提供的信息财富完美地适用于一些特定类别的机器学习算法,称作“卷积神经网络”。在一个我们用来训练“对象识别模型”的典型神经网络里,有着2400万个节点,1亿4千万个参数,和150亿个联结。这是一个庞大的模型。借助ImageNet提供的巨大规模数据支持,通过大量最先进的CPU和GPU,来训练这些堆积如山的模型,“卷积神经网络”以难以想象的方式蓬勃发展起来。它成为了一个成功体系,在对象识别领域,产生了激动人心的新成果。

为了教计算机看懂图片并生成句子,“大数据”和“机器学习算法”的结合需要更进一步。现在,计算机需要从图片和人类创造的自然语言句子中同时进行学习。就像我们的大脑,把视觉现象和语言融合在一起,,创造了第一个“计算机视觉模型”,可以把一部分视觉信息,像视觉片段,与语句中的文字、短语联系起来,生成类似人类语言的句子。

一点一点地,我们正在赋予机器以视力。首先,我们教它们去“看”。然后,它们反过来也帮助我们,让我们看得更清楚。这是第一次,人类的眼睛不再独自地思考和探索我们的世界。我们将不止是“使用”机器的智力,我们还要以一种从未想象过的方式,与它们“合作”。

总而言之,李飞飞所追求的是:赋予计算机视觉智能,从而创造出更美好的未来。

你可能感兴趣的:(李飞飞TED演讲:如何教计算机理解图片?)