AI会改变什么?不会改变什么?ChatGPT之父对人工智能未来的判断

ChatGPT的火,已经从AI圈烧到了全球。

自2022年11月推出后,这款强大的聊天机器人仅用60天月活过亿,被《财富》认为是划时代的产品,引微软、谷歌等巨头纷纷下场。

更重要的是,以ChatGPT为代表的AIGC(Artificial Intelligence Generated Content,生成式AI),正在人工智能领域掀起AI商业化的新一轮浪潮,打开了诸多行业变革的想象天窗。

如果要问谁是当下离 AI 技术革命最近的人,ChatGPT之父、OpenAI CEO 山姆·阿尔特曼(Sam Altman)一定位列其中。

2017 年,还在担任硅谷知名创业孵化器 Y Combinator总裁的他,和伊隆·马斯克、彼得・蒂尔、雷德・霍夫曼等人一起投资了 10 亿美元,共同成为 Open AI 的创始人。又过了两年,他将工作重心转移到了 AI,担任 OpenAI 的 CEO 直到今天。

在去年秋天,山姆·阿尔特曼与 Open AI 创始人之一、领英联合创始人雷德・霍夫曼(Reid Hoffman)展开了一场精彩对话。其中,山姆·阿尔特曼分享了他对于未来AI发展的预测:AI 大模型技术,将成为继移动互联网之后,未来最大的技术平台;而以聊天机器人为界面,加上图像、音乐、文本等多模态模型的发展,将诞生大型企业。

他是如何判断AI未来商业化发展的?大型AI企业将诞生于哪些领域?AI将取代人类的工作,还是更好地帮助人类工作?

今天就与你分享这场对话的编译。

AI会改变什么?不会改变什么?ChatGPT之父对人工智能未来的判断_第1张图片

01

AI大模型——未来最大的技术平台

Q:很多AI大模型都通过API(application programming interface,应用接口)开放使用,它真正的商业机会是什么?

Sam Altman:现在,语言模型已经可以很好地应用到文案写作和教育服务领域。我相信未来几年内,语言模型会更加强大,将能与Google这一价值万亿美元的搜索产品一较高下。语言模型的应用将会改变我们的日常生活。

以前,人们太早嘲笑许多趋势,比如聊天机器人,其实它很有价值,只是当时的技术还不能满足需求。现在的聊天机器人更加成熟,几乎可以达到人类水平。聊天机器人可以用于医疗服务行业,提供咨询和教育服务,这方面将能催生出大型企业

我相信,不久之后会出现多模态模型,这将开辟新的事物。现在,人们可以直接用自然语言命令计算机为你完成你想做的工作。

例如DALL-E图像生成工具和Copilot编程工具,都是用户向它们输入自然语言描述,然后工具自动生成用户想要的东西,用户还可以不断迭代修改自己的描述,直至工具给出满意的输出。

类似的AI应用方式会成为大趋势,可以孕育出许多大型企业。强大的AI模型可以成为孵化各种AI应用的平台,就像智能手机的出现催生出众多APP一样,它们的共同点都是可以制造无数的商业机会

Q:作为大型语言模型 API 的服务提供商,关键是什么?如何创建一个持久的差异化业务?

A:将来应该会出现几个大型的基础模型,开发人员都将基于这些基础模型研发AI应用。但目前的情况依然是某一家公司开发出一个大型语言模型,然后开放API供他人使用。

我认为,将来在基础模型和具体AI应用研发之间会有一个中间层:出现一批专门负责调整大型模型以适应具体AI应用需求的初创企业。能做好这一点的初创公司将会非常成功,但这取决于它们能在「数据飞轮」上走多远

数据飞轮:使用更多数据可以训练出更好的模型,吸引更多用户,从而产生更多用户数据用于训练,形成良性循环。

我对初创企业训练模型的能力持怀疑态度,将来承担模型训练角色的应该不会是初创公司,但这些企业可以在上述的中间层角色中发挥巨大价值。我认为中间那一层会创造很多价值

Q:一个大型语言模型初创企业,如何区别于另一个大型语言模型初创企业呢?

A:我觉得应该是中间层。

从某种意义而言,创业公司会训练自己的模型,只不过不是从头开始。

他们将采用基础模型,这些模型已经经过大量的计算和数据训练,然后在这些模型之上进行训练,为每个垂类创建模型

他们所做的 1% 的训练,对于应用来说至关重要。我认为,这些创业公司将会非常成功,并且与众不同。可能包括一段时间内存在的 prompt engineering(提示工程)或基础核心模型(core base model)。

注:提示工程是指将任务的描述、或者提问放在输入中,让 AI 模型输出理想结果的调试过程;ChatGPT 走红之后,提示工程师这一岗位也被人所关注。

Q:五年内,大多数用户与基础模型交互的方式是什么?prompt engineering 将是许多组织的内部职能吗?

A:我不认为五年后我们还做 prompt engineering,这将被整合进所有地方。无论用文本还是语音,取决于上下文,只需要语言接口,让计算机做你想做的任何事情

将来的AI系统不会因为增补了某个特定词就会产生截然不同的输出,而是可以较好地理解自然语言,用户只需以文本和语音形式输入指令,即可让计算机完成图像生成、资料研究、心理咨询等复杂任务。

总的来说,用户只需使用自然语言就可以与计算机交互,当然,如果艺术家能想出更有创造性的描述,也自然就可以生成更好的图像。

Q:当有一个伟大的视觉思考者,他们可以从 DALL-E 中获取更多,因为他们知道如何更深入思考,知道如何在测试中迭代循环。你认为这是大部分这类事的普遍真理吗?

A:百分百确定。重要的是思想的质量,和对你想要的东西的理解。所以艺术家仍然会在图像生成方面做得最好,不是因为他们在图像最后加上了这个神奇单词,而是因为他们能用我没有的创造性的眼光来表达。

Q:最令你惊讶的是什么?如果没有意识到事情已经发展到这一步,你认为会有什么样的惊喜呢?

A:人们现在所犯的最大的系统性错误,就是他们会说,「好吧,我也许持怀疑态度,但是这种语言模型真的会起作用,当然,图像和视频也会起作用。但它不会为人类产生新知。它只会做其他人已经做过的事情。这还是让智力的边际成本非常低,不能治愈癌症。它不会增加人类科学知识的总和。」 我认为这将被证明是错误的,让目前该领域的专家最感到惊讶的地方

02

当 AI 科学家可以自我迭代

Q:无论是建立在 API 之上,还是科学家使用 API,有哪些地方的科学会加速,以及如何加速?

A:现在科学界对AI的应用分为两种。

一种是将AI工具直接用于科学目的,如AlphaFold(用于蛋白质结构预测),它们可以创造巨大价值,相信未来会出现无数这样的工具。

另一种是将AI工具用于提升科研工作效率,如帮科学家和工程师找到新研究方向、写代码等。Copilot编程工具就是一个例子。但AI工具的能力远不止于此。上述两种AI应用将会大大推动科技前进

此外,目前科学界也在探索对AI的第三种应用方式——让AI成为可以「自我改进」的科学家。这件事情既有好处也有风险。

好的一面是,可以利用AI将人类的工作内容自动化,教会AI做任何人类可以做的事情:探索新科学、提出理论解释、验证、思考等,或许还可借此解决困扰人类已久的「AI对齐问题(Alignment Problem)」(即如何让AI系统的目标符合人类的价值观)。

风险在于,有人担心懂得「自我改进」的AI有可能会像科幻小说描写的那样,擅自改动代码或修改优化算法

我深信,真正有利于促进人类和经济的前行的,是一个能够推动科学进步的社会架构。我们能从这样的社会架构中获益很多。

Q:「对齐问题」可能值得解释一下?

A:建立一个非常强大的系统,如果它不按我们的意愿行事,或者它的目标与我们的冲突,就会变得非常糟糕。

因此,对齐问题是:我们如何建立做最符合人类利益事情的 AGI(Artificial General Intelligence 通用人工智能)?如何确保人类能够决定人类的未来?

我们如何避免意外和故意误用,前者是没有预料到的错误,后者是一个坏人使用 AGI 造成巨大伤害;内在而言的对齐问题是,如果这个东西变成一个生物,视我们为威胁怎么办?

我们对如何在小范围内解决对齐问题有一些想法,已经能够使 OpenAI 最大的模型(表现得)比想象的要好。

我们对下一步做什么有些想法,但不能诚实地看着任何人的眼睛说,看到了 100 年后将如何解决这个问题。

但是,一旦人工智能足够好,我们可以问它,「嘿,你能帮助我们做对齐研究吗?」这将是工具箱里的一个新工具。

Q:我们之前的一次谈话是,能不能告诉 agent(注:AI 中的一个概念,通常指环境中的智能主体),「不要种族歧视」?

A:当然。一旦模型变得足够聪明,真正理解了种族主义是什么样子,以及它有多复杂,你就可以说,「不要成为种族主义者。」

Q:「AGI」这个术语已经被广泛使用。有时困惑来自于人们对 AGI 有不同定义。你如何定义 AGI,怎样知道我们什么时候实现它?

A:我理解的AGI相当于一个可以共事的普通人,任何远程同事可以通过电脑帮你完成的工作,AGI也可以做,包括让AGI学习医疗知识和写代码等等

AGI的重点不在于掌握某一种难得的技能,而是拥有学习的元能力,然后只要人类需要,它就可以往任何技能方向发展并精通。

另一个概念是「超级智能」(Super Intelligence),它指的是比全人类加起来还要聪明的智能。

Q:如何看待像 GPT-3 这样的基础技术,对生命科学研究进度的具体影响?生命科学研究中速率限制的因素是什么?我们无法超越这个限制,因为自然法则就是这样?

A:目前的可用模型还不够好,不足以对生命科学领域产生重大影响——不少生命科学家了解这些模型之后都说,它们只能在部分情况下发挥些许作用。

AI在基因组学领域有一些很有前景的应用方向,但目前尚属起步阶段,不过我很看好。我认为这也是市值千亿的巨头准备进军的领域之一

如果AI未来真的可以让医药公司的研发速率提高几百倍,那无疑会产生深远的影响。不过如你所说,生物学的自有规律仍在,新药的临床验证需要时间,这也是医药研发的速率限制因素。

据我所知,不少合成生物公司借助AI发现许多新的研发想法,加快自己的研发迭代周期,但研发出来之后终究是要进行测试,这部分时间无法缩减。

我认为,医药初创公司最重要的是低成本和快速的研发周期,有了这两点就有资本参与市场竞争了。所以如果我是一家医药初创公司的决策者,一开始我不会选择从心脏病这类大难题下手。

此外,如果我是一家AI药物研发初创公司,我会在模拟器上多下工夫,因为目前这方面还亟待改善。

03

未来十年:

当成本的结构发生变化

Q:你认为登月计划(指 AI 的进化)在未来几年中有什么值得人们关注的地方?

A:一个比较确定的方向是,语言模型的发展会远超今天的想象。虽然很多人都说算力和数据都已经跟不上了,这也是事实,但算法的改进空间依然很大,还可以带来很大的进步。

第二个方向是多模态模型的发展。未来的多模态模型将不局限于文本和图像的互相转换,而是所有模态之间都可以方便地互相转化。

第三个方向是,模型可以持续学习。目前的模型如GPT都停滞在当初训练好的状态,并不会随着使用次数的增加而自我优化。我相信未来可以改变这一点。

如果上述三点都能实现的话,我们就可以解锁无数全新的应用场景,实现真正的科技革新,帮助人类实现科技的飞跃式前进。而且我相信,我们也有办法利用AI推动科研进步和新知识的产生。

我认为,现在普遍存在的一种错误观点是:「虽然语言模型的功能已经比较完善,还可以应用到图像和视频领域,将应用智能的边际成本降得非常低,但归根结底,它只是模仿人类做过的东西,不能为人类产生新知识,不能治疗癌症,也不能拓展人类已知的科学领域。」我相信,AI的发展会让持这种观点的人大吃一惊。

Q:谈一谈目前被广泛讨论的领域,例如,AI 和核聚变。

A:业内有人正在研究利用强化学习模型控制核聚变反应,但据我们所知,AI模型在这里发挥的作用还非常有限。

一件不幸的事情是,AI 已经成为一个流行词(buzzword),这通常是个很糟糕的迹象。我希望这并不意味着这个领域即将分崩离析。但从历史上来看,这对于新的创业公司来说是一个非常糟糕的信号。

我认为这是个人们会说一切都是「这个加上 AI」的领域,很多事情都是真的。我确实认为这将是这一代最大的技术平台

我们喜欢在前沿领域做预测,预测和理解规模理论(scaling laws)是怎样的(或是研究之后),然后说「好,这个新事物将发挥作用,就根据种方式来预测推演。」

这也是OpenAI的运作模式——先做摆在我们面前的最有信心能成功的事情,然后分出10%的资源进行成功确定性更低的探索工作。这种运作方式为我们带来巨大的成功。

现阶段不应该把重点放在「让AI无所不能」上,而是先沿着现有的道路慢慢发展完善AI,然后留有开放探索的空间——伟大的事物都不是计划出来的,有时重大的突破诞生于偶然

Q:AI 应用在非常重要的系统,例如金融市场,将会发生什么?

A:AI终将渗入人类生活的方方面面未来十年里,智能和能源的边际成本会迅速下降,趋近于零,而智能和能源又是其他各行各业的主要成本来源(当然,奢侈品除外)。

整个社会的成本结构都会下降,正如之前多次科技革命的结果一样。在这种浪潮之下,很少有什么会一成不变。但有一点很重要,智能和能源成本只是趋近于零,而不是直接降为零。所以将来如果有人仍愿意花费巨额投资来购买智能和能源,他们得到的算力和能源的数量将突破想象。

设想一下,将来的能源使用成本下降10~100倍,智能使用成本下降1亿倍,而对能源和智能的资金投入则比现在多1000倍,那会是什么样的局面?

Q:AI 可以为人类创造者提供工具,拓展创造力。那么,让创造者更有生产力\AI 用创造力自己去做每件事的界限是什么?

A:至少目前看到的不是取代,主要是增强。在某些情况下,它正在取代。但对于这些领域的人们想从事的大多数工作来说,它是增强。这种趋势将持续很长一段时间。可能展望 100 年,它可以完成整个创造性工作。

我觉得有意思的是,如果 10 年前问人们,AI 将如怎样带来影响,多数人会很有信心地说,首先它将取代工厂的蓝领工作,卡车司机等,然后将取代低技能的白领工作,然后是高技能、高智商的白领工作,比如程序员。也许永远不会取代那些创造性的工作。现在的发展正好相反

这说明预测未来是多么困难。这也说明人类可能不够了解自己,不清楚什么类型的技能最难、最需要调动大脑,或者错误估计了控制身体的难度。

Q:你认为 AI 不会改变生活的哪些方面?

A:所有深层生物学的东西。我们仍然会真正关心与他人的互动,仍然会享受乐趣,大脑的奖励系统仍然会以同样的方式工作。我们仍然会有同样的动力去创造新事物,为愚蠢的地位竞争,去组建家庭等。五万年前人类在意的东西,一百年后的人类也会在意

Q:在未来的 20 到 30 年里,随着人工智能的不断发展,会出现主要的社会问题吗?我们今天能做什么来缓解这些问题?

A:AI的应用会极大影响经济活动。将来我们需要形成新的社会契约,考虑如何公平地分配财富。AGI系统的使用权将会成为一种商品,所以也要考虑如何让所有人平等地获得使用AGI的机会

还有AGI的管理问题:人类如何共同决定AGI可以做什么、不能做什么

我不担心「AI取代人类的工作之后,人类何去何从」的问题,虽然未来人类的工作会和现在很不一样,但我觉得人类最终都会找到自己满意的事业,过上充实的生活。真正的难题是财富分配、AGI使用权和AGI的治理问题

我们进行了世界上最大的 UBI 实验(Unconditional Basic Income,无条件基本收入)。五年计划还剩下一年零四分之一的时间。这不是唯一的解决办法,但我认为这是一件伟大的事情。应该再尝试 10 件这样的事情。我们还尝试了不同的方法,从我们认为将受到最大影响的群体那里获得意见,并看如何在周期的早期阶段行动。最近我们探索了如何将这项技术用来重新培训那些早期将受到影响的人,也会尝试做更多这样的事情。

注:无条件基本收入,指没有条件、没有资格审查,公民可以定期领取由政府或特定组织给予的一笔资金。

04

One more thing

我想,没人知道我们正处在 AI 的悬崖边上。人们会说「要么会很棒,要么会很糟糕」,你得做最坏的打算。

说一切都会好起来,这并不是一个策略。不过你可能会有某种感觉:我们将到达一个美好的未来,并且尽所能的努力工作,为之奋斗,而不是一直从充满恐惧和绝望的地方采取行动。

文章原载于  长江商学院


免责声明:本文为网络摘录或转载,版权归原作者所有,内容为原作者个人观点,并不代表本公众号赞同其观点和对其真实性负责。如涉及作品版权问题,请与我们联系,我们将在第一时间删除内容!

你可能感兴趣的:(人工智能,chatgpt)