谷歌DeepMind使用了一个大型语言模型,成功破解了一个未解的数学难题

每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/

这里是我尝试用中文重写该文章的主要内容:

谷歌DeepMind使用了一个大规模语言模型来破解一个著名的纯数学未解难题。Nature杂志今天发表的一篇论文中,研究人员称,这是第一次使用大规模语言模型发现一个长期科学难题的解决方案,产生了可验证和有价值的新信息,这些信息以前不存在。DeepMind研究副总裁Pushmeet Kohli说:"它不在训练数据中,它甚至是未知的。"

大规模语言模型以捏造事实而闻名,而不是提供新事实。谷歌DeepMind的新工具FunSearch可能改变这种情况。它表明,如果以正确的方式引导它们,并丢弃其产出的大部分内容,它们确实能进行发现。

FunSearch继续了DeepMind使用AI在基础数学和计算机科学领域进行的一系列发现。首先AlphaTensor找到了一种加速许多不同类型代码的核心计算的方法,打破了50年的记录。然后,AlphaDev找到了使每天使用数万亿次的关键算法运行更快的方法。

然而,这些工具没有使用大规模语言模型。 基于DeepMind的游戏AI AlphaZero构建,这两个工具通过将数学问题视为围棋或国际象棋难题来解决它们。问题是它们局限于自己的领域,DeepMind研究员Bernardino Romera-Paredes说:"AlphaTensor在矩阵乘法方面表现极佳,但基本上完成不了其他任务。"

FunSearch采用了不同的方法。它结合了一个名为Codey的大型语言模型,这是谷歌PaLM 2的调整版本,用于计算机代码,以及其他系统来拒绝不正确或无意义的答案并再次提供良好答案。

DeepMind研究员Alhussein Fawzi说:"老实说,我们有一些假设,但我们不确定为什么它有效。在项目开始时,我们不知道这是否会奏效。"

研究人员首先用Python这种流行的编程语言概述了他们想要解决的问题。 但是他们省略了程序中将指定如何解决问题的代码行。这就是FunSearch的用武之地。它让Codey填补空白,实际上是建议代码来解决问题。

然后第二个算法检查和评分Codey的建议。最佳建议保存在Codey中,即使它们还不正确,Codey也会再次尝试完成程序。Kohli说:"许多内容毫无意义,一些内容有意义,还有一些真正鼓舞人心。你要拿这些真正鼓舞人心的答案,说‘好的,把这些再重复一遍’。"

经过几百万次建议和整个过程的几十次重复(用了几天时间),FunSearch能够想出解决盖集问题的代码,这涉及找到某种集合的最大大小。想象在毛毡纸上绘制点。盖集问题就像试图弄清楚在三个点不形成一条直线的情况下,你可以放下多少个点。

这非常简陋,但很重要。数学家甚至不确定如何解决这个问题,更不用说解决方案是什么了。 (它也与AlphaTensor找到加速方法的矩阵乘法计算有关。)UCLA的Terence Tao获得了数学顶级奖项,包括Fields Medal(数学界的诺贝尔奖)。他在2007年的一篇博文中称盖集问题为"也许是我最喜欢的开放问题"。 

Tao对FunSearch能做什么很感兴趣。他说:"这是一个有前途的范式。这是利用大语言模型的力量的有趣的方法。"

与AlphaTensor相比,FunSearch的一个关键优势是,它理论上可以用于寻找各种问题的解决方案。 这是因为它生成代码,生成解决方案的配方,而不是解决方案本身。 不同的代码将解决不同的问题。 Fawzi说,与奇怪的数学解决方案相比,配方往往更清晰易懂。

为了测试其通用性,研究人员使用FunSearch解决另一个硬数学问题:装箱问题,其中试图将项目尽可能少地装入箱子。这对计算机科学中的一系列应用非常重要,从数据中心管理到电子商务。 FunSearch提出的解决方案比人类设计的解决方案更快。

Tao说,数学家“仍在努力弄清楚如何将大型语言模型以利用它们的力量而又能减轻它们的缺点的方式融入我们的研究工作流程。这无疑表明了一种可能的前进道路。”

你可能感兴趣的:(语言模型,人工智能,机器学习)