李飞飞:我更像物理学界的科学家,而不是工程师|深度学习崛起十年

李飞飞:我更像物理学界的科学家,而不是工程师|深度学习崛起十年_第1张图片

来源|The Robot Brains Podcast

翻译|胡燕君、程浩源、贾川、沈佳丽、许菡如

新一轮深度学习崛起的引爆点是AlexNet,而它的爆发却离不开“燃料”ImageNet数据集。

斯坦福大学教授李飞飞正是ImageNet的发起人和推动者,在她看来,ImageNet就是重塑计算机视觉或机器学习的“北极星”。

不过,这一数据集的建立历经曲折,彼时遭受了包括Jitendra Malik教授在内不少人的质疑,如果项目失败,很大可能影响李飞飞拿到终身教职。不过,她还是顶住质疑,坚信创建ImageNet是必要的。

历经数年努力,李飞飞和她的团队建立了ImageNet数据集,包含使用日常英语标记的1400万张图像,跨越218000个分类,为后来“AlexNet时刻”的到来提供了不可或缺的助力,ImageNet竞赛后来也成为计算机视觉领域的研究人员角逐算法效果的大舞台。

也是在深度学习走红的那一年,她与当时的博士生Andrej Karpathy开设了在斯坦福备受欢迎的深度学习课程CS231n,它也成为在网络上爆火的最早、最权威的深度学习课程,极大地推动了深度学习知识的普及。

作为一名华裔科学家,李飞飞的成长故事非常励志。她出生于北京,在成都长大,16岁随父母移居美国,为了支撑一家人的生计和她的学业,她去了在中餐馆打工、做家庭保洁员。19岁,她在普林斯顿大学的物理学专业就读,期间开办了一家干洗店。

而后,她的学术生涯一路向前,人生迎来转机。2005年,她在加州理工学院获得电子工程专业的博士学位,直到2012年,她晋升为斯坦福大学终身职的副教授,并担任人工智能实验室主任。2017-2018年学术休假期间,李飞飞担任谷歌副总裁、谷歌AI/ML首席科学家一职。2020年以来,陆续当选美国国家工程院院士、美国国家医学院院士、美国艺术与科学院院士,也是唯一一位当选“美国三院士”的华裔女性科学家。目前,她致力于“以人为本”的人工智能研究所(Stanford HAI)的工作。

从为了维持生计和学业当保洁员,到成为斯坦福教授和享誉AI领域的科学家,她是如何做到的?ImageNet对深度学习的崛起意味着什么?她目前对AI发展的关注重心是什么?又如何看待AI学界人才等资源外流的现状?去年8月,在Pieter Abbeel主持的The Robot Brains Podcast节目中,李飞飞都一一作了解答。

以下是对话内容,OneFlow社区做了不改变原意的编译。

1

从保洁员到从事AI相关研究

Pieter Abbeel:你的职业道路非常传奇,在成为斯坦福教授之前,你一开始是在干洗店工作。

Fei-Fei Li:是的,干洗店是我的“创业起点”。我们一家是典型的移民家庭,需要努力解决生计,遇到了很多困难,包括我父母不会说英语等等。19岁,我入读普林斯顿大学后,当时觉得开一家干洗店是最好的选择,尤其它还是周末营生,我就有时间去帮忙,还可以分担店里的很多体力活,这就是我的起点。

Pieter Abbeel:如果回到那段干洗店岁月,你会想到未来会从事跟AI有关的工作吗?

Fei-Fei Li:当然不会。当时,我的生活有一个贯穿始终的主题,那就是打工。我的第一份工作是在一家中餐馆打下手,后来做过一段时间的家庭保洁,然后才是干洗店。但我并没有让这样的生活定义我自己,这些只是移民生活的一部分,是为了让我和家人在陌生社会站稳脚跟所必须经历的事情。

真正定义我的,是我对科学的热爱。我在普林斯顿主修物理,物理探究的是宇宙最本源的问题,非常具有想象力。那时,我随身都带着书,在中餐馆和干洗店工作的间隙就会读书。在AI出现在我的生命中之前,日子就是这样度过的。

Pieter Abbeel:那你后来是如何进入AI领域的?

Fei-Fei Li:一切可能是偶然,也可能是命中注定。我当时对物理很着迷,现在我仍觉得自己更像物理学家,而不是工程师。

我读过很多20世纪最伟大的物理学家的书,包括我最喜欢的爱因斯坦和薛定谔,还有我童年时期非常崇拜的Roger Penrose,他在2020年获得诺贝尔奖,当然还有霍金。

读这些书时,我有一个意外发现:爱因斯坦、薛定谔和Penrose到了职业后期,会更多地讨论精神世界,而不是物质世界。我们知道,物质世界关注的是宇宙边界、时间开端、原子亚结构等,但是精神世界关注的是我们是谁、生命的意义是什么等问题。

这些问题引起了我的共鸣。不知怎么地,我跟随了他们的脚步,探究精神世界也成为我渴望研究的问题,于是从大学中期,我开始思考生命的意义这类问题。作为物理专业的学生,如果对一个问题很感兴趣,我就会驱使自己去思考其中最根本性的问题。

对我来说,人类生命的基本问题就是智能。带着这样的探寻目光,我步入了神经科学的世界,在几次神经科学领域的实习经历中,更加确定了对智能的热爱。于是,我从硬核的原子世界、物理世界,转向了对智能的探索。

Pieter Abbeel:其实,当初我决定研究AI也是出于对人类智能的思考,但我发现我难以理解神经科学,所以浅尝辄止,后来我觉得用工程学方法来研究大脑可能更容易。直到现在,你应该都在继续研究神经科学,后来你是如何决定攻读电子工程博士的?

Fei-Fei Li:这就引出了一个值得思考的问题:我们到底是建造飞机,还是建造鸟类?我认为,对于AI这样宏大的领域,这两种科学工程思维都非常重要。我之所以研究AI,是因为想跨越人类大脑和人工大脑之间的界限。

我觉得自己身上还残留着物理学的浪漫,相信硅基大脑和有机的碳基大脑之间存在共通点,人类智能和机器智能之间的界限并非不可逾越。

博士择校时的依据是,这所学校是否有助于我进行跨学科研究。我最终选择了加州理工学院,师从Christof Koch教授,他曾是一位物理学家,后来成为计算神经科学家。还有Pietro Perona教授,他曾是工程师,后来转而研究AI。在他们的指导下学习,既可以研究认知神经科学,又可以研究计算神经科学。

在Pietro教授的实验室里,我才真正了解到什么是AI和计算机视觉,以及机器学习作为一种数学工具能做什么。我非常痴迷于这些领域,并清楚地感到这就是我的毕生追求。

我不知道你是否有过这种感受,就像孩子发现了一个全新的游乐场,里面有着无穷无尽的惊喜和宝藏等着你去挖掘。一旦你拥有过,就永远不会忘记这种感觉。

2

ImageNet的曲折成长记

Pieter Abbeel:2012年是AI发展的一个重大转折点,这一年,AlexNet深度卷积神经网络在ImageNet挑战赛上取得突破性成果,标志着深度学习的崛起。人们开始相信神经网络的潜力,并开始研究神经网络。你是这个重大转折点的关键人物,因为你创立了ImageNet数据集和挑战赛,这是神经网络得以训练的基础和前提。建立ImageNet数据集的想法是怎么开始的?

Fei-Fei Li:这得追溯到我在加州理工学院读博时期。我所在的Pietro Perona实验室是计算机视觉领域最早的实验室之一,致力于研究物体识别这一看似不可能实现的任务。那时,计算机视觉领域更多关注的是立体视觉和对极几何(Epipolar Geometry),而我们却想教会机器如何识别日常物品,这看起来有些疯狂。

促使Pietro教授和我研究物体识别其实也跟神经科学有关,21世纪初期左右的认知神经科学和神经生理学的文献提到,人类大脑和人类思维在进化过程中发展出复杂的自适应能力,最终让人类能够高效而灵活地进行物体识别。

我认为,这样的神经科学理论就像北极星,指引着当时不到10个人的计算机视觉科学家,而Pietro教授就是其中的核心人物。

作为融合了统计建模和计算机科学的全新领域,机器学习主要研究泛化等一系列复杂的数学问题,以及如何将人类的泛化能力迁移到机器。我们这代博士生似乎都比较看好机器学习。

博士毕业之际,我在物体识别方面遇到了一件非常棘手的事,那就是我们必须手动调整贝叶斯网络模型,真的十分痛苦。因为我们不知道如何让机器去学习像素化世界,所以必须人为地给它们设计一些特征,以确保机器能成功捕捉到各种角点、斜线、以及不同的形状。

此外,我们还要人工将这些特征组合起来,比如,我们要合成一只猫的图像,那就会挑选10个特征,包括脸部和身体特征等,这些特征可能还是来自不同时期,所以有无限种组合方式。

我们主要使用高斯模型这类表达能力不太强的模型来构建一个可泛化的模型,尽管我们取得了一些进展,但过程非常痛苦。

2005年,我到伊利诺伊大学担任助理教授。那时我突然意识到,机器学习最重要的概念就是避免过度拟合并且实现泛化,这两者往往是对应的。如果我们想避免过度拟合并实现良好的泛化,就必须要有强大的模型。但从数学角度出发,如果我们需要构建强大的模型,就必须要有海量数据作为支撑,否则很容易掉入过度拟合的陷阱。

于是,我把研究重心转移到数据上,但发现计算机视觉数据集屈指可数,规模也普遍偏小。当时已有的Caltech 101数据集就是我一手创建的,但后来PASCAL委员会指出,相比像素的所有可能的组合方式,Caltech 101的两万张图片数据还远远无法满足机器学习的需求。

2006年左右,我刚从伊利诺伊大学香槟分校回到我的母校普林斯顿大学执教,我告诉学生们要改变原有思维方式,并创建一个不同数量级的数据集。我们的工作不是为了扩大数据集的规模,而是要给机器学习注入新动力。

在普林斯顿大学工作期间,我有幸同一些语言学家交谈,其中包括知名的Christiane Fellbaum教授。一开始,我也不知道自己为什么要和这些语言学家打交道,但后来我发现他们站在了网络世界的中心。

当他们听说我打算在物体识别项目中给物体制作对应的语义标签后,也想知道语言和视觉之间是否存在某种联系,这个想法非常超前,当时我还没有想过要深入研究语言问题。

也是在那时,我第一次听说了WordNet,并从中汲取灵感,打算基于WordNet的8万个标签词搭建一个新的数据集。我认为,这项规模庞大的项目可以像北极星一样为新一轮的研究指明方向,重新塑造计算机视觉和机器学习领域。

Pieter Abbeel:相比用8万个标签来创建全新的ImageNet数据集,显然Caltech 101数据集跟它不在一个量级,你们是怎么做到的?

Fei-Fei Li:我也曾设想过,如果我们一开始就知道会遇到重重阻碍,是否还有勇气推进这项工作?我曾天真地以为,我们用搜索引擎下载图片,然后找一些本科生加以整理就可以搞定这件事。我也不知道当时为何会有这样的计划。

我们需要下载几十亿张图片。要知道,当时搜索引擎的能力要逊色得多。即使输入“德国牧羊犬”这个关键词,检索到的图像质量也并不高。众所周知,训练数据集最重要的就是数据的多样性和可变性。因此,我们不能只输入“德国牧羊犬”,还必须人工添加一些修饰语才能真正地丰富搜索结果,比如“玩飞盘的德国牧羊犬、海滩上的德国牧羊犬”等等。

即便如此,检索出的图片质量仍然不好。所以,我当时打算以每小时10美元的价格雇几百名本科生来帮我们筛选图像。

那时,我在普林斯顿实验室的工作几乎全是在标注数据。坦白说,那时我还缺乏经验。毕竟我曾独自包揽了Caltech 101数据集的标注工作,这个数据集只有10000张图像,所以我一个人也能轻松搞定。但几个月后,我们发现ImageNet数据集的规模实在太大,标注工作根本不可能完成。

当时,我带的博士生Jaden(他当时的研究方向是图像,现在是一名AI教授)觉得图像标注工作的进展愈发不容乐观。单靠人力不可能完成标注工作,所以我们干脆走向了另一个极端——全部采取机器标注。

那几年,隐狄利克雷分配(latent Dirichlet allocation,LDA)等主题模型的表现非常突出,于是我们打算采用这种模型,它实际上就是一种聚类算法,可以挑选出高质量的德国牧羊犬图像群。

机器筛选的方法总体上是可行的,只需人工完成一些精细标记工作。但很快,我发现我们的效率太低了。一个哲学问题随即出现了:如果用机器来筛选图片,那我们就倾向于机器,以及倾向于最初用来选择图片的算法,而这并不是我们乐意看到的,因为希望创建的数据集效果要达到人工标注的水准。

所以,我们毅然决定要避免纯机器标注和纯人工标注这两个极端。然后,我们的工作就遇到了瓶颈。直到2007年,一名斯坦福大学的硕士生问我:“飞飞,你听说过Amazon Mechanical Turk(AMT)吗?” 我当时还是第一次听说,下班后我赶紧回家登陆上去看看,才发现这个在线人力市场支持雇主部署任务,然后雇人参与,这个大规模的在线平台轻松解决了我们的燃眉之急。之后,我们还是花费了长达两年半的时间才完成庞大的图像标注工作。AMT为我们创建ImageNet数据集指明了方向。

Pieter Abbeel:你所说的这条道路很有意思,也很难走。可以说,你在AMT上为世界各地的公司提供了数十亿美元的业务。十多年过去,图像标注领域也已经完全实现了商业化。

Fei-Fei Li:我很高兴看到这些发展,这是我们未曾料想到的。不过,正是历史和技术的惊人融合才推动了我们的工作。

Pieter Abbeel:2012年,在ImageNet竞赛中出现的AlexNet时刻,彻底改变了计算机视觉领域,人们随之纷纷转向了深入学习领域。你参与组织了这一届ImageNet竞赛,但前两届的竞赛都没有出现像这样重塑AI领域的大事件。你怎么评价2012年的ImageNet竞赛?它为什么能够脱颖而出?

Fei-Fei Li:2009年,我们在CVPR 2009上发表了一篇关于ImageNet数据集的论文,当时立马引起了很大的争论。

实际上,我们当时受到的批评远比认可要多,他们的批评主要在于:当时的物体识别技术还有很多难题没有攻破,发布ImageNet数据集又有什么用?虽然ImageNet数据集收纳了22000类数据,但数据集规模越大,就意味着更好吗?以及ImageNet数据集的智能程度如何?有谁在意那些已标注的图像等等。

回想起来,幸好我们没有怎么在意那些质疑。我们深知ImageNet存在的意义,也坚信它日后将成为计算机视觉领域的“北极星”。

但我们很想让大众明白我们的想法。就像做研究一样,我们想让研究成果得到人们的认可,以做出更大的贡献。通过Pascal VOC挑战赛,我们发现,要想使自己的想法得到公众认可,举办高含金量的比赛是一个很有效的方法。

我真的很感谢Pascal组委会,他们很理解我们。当我联系他们寻求合作时,他们说,“没问题,你们的想法是对的,但前路仍任重而道远。虽然你们还不知道现在在做什么,不如和我们一起做一场挑战赛试试水?”当时我非常开心,很愿意和他们合作,同时也非常感激他们接纳了我。

2010年,我们就举办了ImageNet挑战赛,但当年的赛况并不理想,参赛者寥寥无几。最终,支持向量机(SVM)模型成为了当年的冠军。2011年参赛者就更少了,只有区区几支队伍。

因此,我们决定在2011年举行一项独立的挑战赛,当时,这些参赛队伍面临的最大挑战就是计算机内存实在太小。先不说算法,他们甚至无法将数据成功导入电脑。

在读研期间,我学到了摩尔定律,而且对此深信不疑。当时我知道了随着计算机的发展,尤其是机器学习的发展,是会遵循摩尔定律的:存储器的尺寸会越来越小,而计算机的运行速度会越来越快。我就告诉自己,不要着急,要遵循摩尔定律,一切都会实现的。

当时我认为,要想实现我的预期应该还要再等几年,但没想到在2011年就实现了,后来内存空间还会变得更大,芯片运行还会更快。

因此,在2012年,我对数据集进行了重构。在ImageNet挑战赛开始后的某天深夜,我收到学生邓嘉的消息,他说今年的冠军简直令人难以置信,使用的是已有的卷积神经网络。

我在读研时学的第一节课就是关于神经网络的。我们生活的世界就建立在一个基于贝叶斯模型的网络之上。但没想到卷积神经网络这么古老的模型居然能赢得ImageNet挑战赛。

记得当时我还在休产假,但我太兴奋了,立即做了两件事。第一件事就是立即尝试了一下Dropout和ReLU这两个新成果。当然,GPU也非常重要,AlexNet使用了两块GPU。第二件事是,由于获胜队伍将在意大利佛罗伦萨举行的国际计算机视觉大会(ICCV)上展示他们的研究成果,考虑到这是一个历史性的时刻,我立即订了飞往佛罗伦萨的机票,在飞机上度过的时间比待在佛罗伦萨的时间还要长,但正因如此,这也成了我职业生涯中比较难忘的一件事。

Pieter Abbeel:伯克利的同事Jitendra Malik曾告诉我一件关于AlexNet这件事。他曾经给Geoffrey Hinton打过电话,询问了一些关于神经网络的问题。Geoffrey问他,“听说你们并不看好神经网络?我们会说服你的。”Jitendra说,“你们确实在某方面做得很好,但ImageNet是一个更真实的数据集,在那里进行测试才能得出更为可靠的结果。”

Fei-Fei Li:对于ImageNet的诞生,他也发挥了某种推动作用。Jitendra是真正意义上第一个将认知神经科学融入到计算机视觉中的人,他的研究风格对我产生了很大的影响。

2007年,当时我还是一名助理教授,在CVPR会议上,我告诉他正在做ImageNet,他说他不确定这对我获得终身教职是否有帮助。并且他给出了一个看似不错的理由,“你现在想做的事是一项浩大工程,数以百万计的图像并不是这个领域所关注的,即使到了2011年,都没有足够强大的芯片将数据放入存储器,更不用说计算了。”

我不知道我为什么坚持了下来,可能是我太天真了。这可能是Jitendra给我的所有建议中,我唯一没有采纳的一个建议。他非常支持我,直到现在我们还经常拿那一刻开玩笑。

3

AI进军医疗行业

Pieter Abbeel:你后来还入选了美国国家医学院院士,你怎么看待AI在医疗行业的应用?

Fei-Fei Li:AlexNet取得突破性成果,标志着深度学习自此崛起。当时,深度学习技术已经应用到自动驾驶汽车上。自动驾驶技术的核心是AI要正确把握汽车行驶时行人和路面的状况,然后通过数据分析作出更好的驾驶决策。

AI在医疗行业上的应用也是同样的道理,AI要能正确理解那些多人协同的工作流程,然后综合这些信息给出恰当的治疗方案。

我对医疗行业颇为了解,想为这个行业作出贡献。斯坦福医学院是全世界最好的医学院之一,所以我开始在这里宣传我的想法。但很多人都觉得我太疯狂了,只有Arnold Milstein教授支持我。他的整个职业生涯都在研究医疗流程,确保临床医生的诊疗决策与行动标准化,避免病人因医疗流程失误而受到伤害。他在斯坦福创立卓越临床研究中心(CERC),并担任该研究中心的负责人和医学教授。

Arnold教授告诉我,美国每年都有超过25万病人因为医疗事故丧生,有9万病人因为在医院感染而死亡,其中大部分感染都是由于医护人员手部清洁不到位。这些数字触目惊心。目前我们的医护人员工作量太大了,他们亟需协助来避免工作流程失误,防止给病人带来额外风险。

2012年,Arnold教授和我一拍即合,开展了一项即便在今天看来也相当新颖的研究——利用传感器实现环境智能(ambient intelligence)。之所以用“传感器”而不是“摄像机”是因为考虑到隐私问题,我们必须采用像IR和Depth这样的技术,以及使用传感器来获取病人和医生的行为信息,并利用捕捉到的信息来为诊疗提供参考。

直到今天,我们还在继续这项研究。我们将这项技术应用在各种医疗场景,包括在ICU观察病人行动,在养老院测量老人摔倒的风险,在斯坦福的儿童医院评估医护人员手部清洁是否到位等。

我个人比较感兴趣的是把这项技术用在老年人的居家护理问题上。现在,人均寿命变长是好事,但也带来了人口老龄化问题。新冠疫情中,很多患有痴呆症、慢阻肺和糖尿病的老年人不能及时去医院就诊,这让我们意识到居家护理的重要性。

我们把居家护理称为“医疗暗区(dark space)”,因为我们不知道病人在家时发生了什么。很多临床医生告诉我,病人居家期间发生的情况非常关键,是诊疗的重要依据。而环境智能技术(以尊重病人隐私为前提)就像是老人和病人的“居家守护天使”,可以监测到他们遇到了什么危险,以便能更好地照顾他们。我认为,这些都是目前最符合人道主义精神和对社会最有益的计算机视觉应用。

Pieter Abbeel:这也让我想起了你最近的重大项目,Stanford Human-Centered AI Institute (Stanford HAI),你们主要研究如何让AI走出实验室,应用到包括医疗在内的各个领域。当初为什么决定创立Stanford HAI?

Fei-Fei Li:在2017到2018年的学术休假期间,我出任Google Cloud的首席科学家,有幸见证了AI的前沿发展,看到了AI被应用在农业、医疗、金融等多个垂直领域。

这段经历也刷新了我的认知,当我结束学术休假回到斯坦福,我开始跟同事和领导交流:在AI时代,学术界能够发挥什么作用,能为人类的未来作出什么贡献?

斯坦福一直自豪于它是领袖和人才的摇篮,也是思想和学术的灯塔,那它能为AI做什么?我们的答案是,作为AI界的技术中心之一,斯坦福应该引领AI的发展方向和技术落地,这既是斯坦福的重任,也是它的机遇。

近年来,我也越发意识到,随着技术进步,我们必须完善相关政策。科技会推动社会发展,但同时也给社会带来侵犯隐私等负面影响,让人们担心AI会否取代人类的工作等等。

为了扬长避短,科技界需要和政界加强沟通。可能因为加州离华盛顿这个政治中心太远了,所以目前我们这种沟通还不够多。因此,Stanford HAI承担了双重使命,既要研究AI技术和AI的跨领域创新,也要开展、参与政策研究和制定,成为政界和科技界之间的沟通桥梁。这就是Stanford HAI正在做的事情,旨在推动AI研究、AI教育和相关政策的发展,从而改善人类生活。

我平常不是在做研究,就是在Stanford HAI工作。我相信全球很多研究机构和中心都和Stanford HAI一样,都认为AI不仅会成为新的科技浪潮,而且会深刻改变人类的生活、生产方式以及商业模式。AI是大势所趋,它应用面广、影响力大,被称为第四次工业革命的驱动力。毫无疑问,它会给人类带来翻天覆地的变化。

Pieter Abbeel:在未来的5~20年里,有没有什么技术会像AI在医学领域那样发挥起重大作用?

Fei-Fei Li:我对机器人也很感兴趣。20年前,机器人和人工智能是完全不同的领域,它们使用的工具和研究的问题都相距甚远。但现在随着深度学习、机器学习、强化学习的出现以及计算机视觉和自然语言处理的成熟,机器人和AI可以产生更多交集,可以衍生AI机器人和机器人学习等交叉领域。

机器人技术不仅可以为学术界带来无限可能,人类世界也有太多的生产力需要释放,机器人可以让工作更安全、高效、协作,甚至可能打破物理距离的界限。这可以从根本上改变人类劳动的现状,这让我感到兴奋不已。

当然,这是一个需要谨慎处理的话题,因为人类劳动关乎工作和生计,比如,自动驾驶汽车的出现让人们开始深入探讨它对卡车司机和出租车司机的影响。作为最了解这些技术的人,我们必须用好这些技术,让它们为社会做贡献,而不是带来意想不到的危害。

4

AI资源流向业界,学界人才在流失

Pieter Abbeel:让政策跟上科技进步很重要。但问题是,一旦牵扯到政策问题,它很多时候就会成为阻碍科技进步的因素。

Fei-Fei Li:这就是这个问题如此复杂的原因。监管措施和所有权问题等如果没有处理好,可能就不会促进AI生态系统的发展,反而会阻碍创新。任何事情走极端都不太好。

以美国的创新生态为例。你和我都是移民,回顾过去半个多世纪,只有美国才有这种令人难以置信的创新生态,工业界、学术界和国家资源之间可以相互连接、相互作用。

但在AI产业化后,算力、数据、人才等大量资源从学术界转移到产业界,这种连接肯定有积极的一面,但现在资源向产业界倾斜得太严重,那些有影响力的研究越来越多地发生在营利性公司内部。这让学术界非常担心人才流失,担心没有人来开展天马行空的研究。

当然,企业投资研发并没有错,但天马行空的研究和为公众利益而进行的研究仍然很有必要,它们可以促进全球经济健康发展。

因此,Stanford HAI在2020年花费了大量时间,帮助制定了一项重要法案,即2021年1月1日通过的National Research Cloud Task Force Bill。2021年6月,拜登政府成立了一个特别工作组来专门推动AI相关的创新。

从这个角度来看,政策不仅仅意味着监管,也可以是激励和资源分配。Stanford HAI相信这一点。

事实上,我们让许多大学和公司一起参与相关立法。同时我认为,技术专家和科技界需要深入思考监管措施意味着什么。

我工作中接触最多的行业是医疗保健。医疗行业的监管非常严格,严格到有时会让我感到沮丧,但如果你深入研究这种监管的动机,会发现严格的监管十分必要。

我们面临的挑战是,如何继续创新和优化科技、产业和政策之间的相互作用,以保障生命安全和技术的公平分配,并且不减慢创新速度。我始终认为,监管制度非常重要。

Pieter Abbeel:作为“特别工作组”的核心成员,你希望它达成什么目标?

Fei-Fei Li:这个新成立的特别工作组将会大力推动各相关方之间的合作,比如共享算力和数据资源,为未来一代又一代的AI研究提供支持。同时,我们也会为来自全美各地的学生提供教育平台,让大家方便地开展具有创造性和多样化的研究。

Pieter Abbeel:最聪明的人才还会流向美国吗?他们现在会不会更倾向于待在自己的国家?而不是像我们当年一样,为了有更多做大事的机会来到美国。近年来,美国对人才的这种吸引力似乎没那么明显了。

Fei-Fei Li:没错。我确实看到很多学生在斯坦福博士毕业后离开美国去加拿大、欧洲等地方当教授,其他国家和美国之间的差距也在缩小,似乎很多人都觉得,他们在自己的国家做研究也能做得一样好。

过去的人才只会因为非常强烈的个人原因而离开美国,但现在可能出于很多原因而离开,美国学术界缺乏资源是原因之一,我们需要扭转这种局面。如果美国能再次获得从前的优势,才会极大提高对人才的吸引力。

(本文经授权后编译发布,原视频:

https://www.youtube.com/watch?v=YE1UDwksAOc)

其他人都在看

  • “远见者”特斯拉AI主管Karpathy

  • LLVM之父:模块化设计决定AI前途

  • 天才制造者:独行侠、科技巨头和AI

  • 手把手推导分布式矩阵乘的最优并行策略

  • 解读Pathways(二):向前一步是OneFlow

  • 关于并发和并行,Go和Erlang之父都弄错了?

  • OneFlow v0.7.0发布:全新分布式接口,LiBai、Serving等一应俱全

欢迎下载体验OneFlow v0.7.0:

GitHub - Oneflow-Inc/oneflow: OneFlow is a performance-centered and open-source deep learning framework.https://github.com/Oneflow-Inc/oneflow/

你可能感兴趣的:(业界观点,神经网络,机器学习,人工智能,深度学习,计算机视觉)