DeepMind发布阿尔伯塔计划,致力于填补目前计算智能基本理解研究的空白领域

#今日论文推荐# DeepMind发布阿尔伯塔计划,致力于填补目前计算智能基本理解研究的空白领域

本次 DeepMind Alberta 将其 AI 研究方法,称为阿尔伯塔计划(Alberta Plan)。
它主要针对未来 5-10 年计算智能的基本理解问题,旨在填补目前研究的空白领域,并不关注现有方法的立即应用。文章主要对该机构的 AI 愿景和这些愿景可能实现的方向,以及将探索的研究问题和项目进行了说明。虽然这些愿景还有着不确定性,但研究人员尽可能具体地描绘了未来的道路。
按照 Alberta Plan,研究人员试图理解和创造一个富有生命力的计算代理。该文章还提到,代理的初始设计往往尽可能简单,且具有通用性和可扩展能力。但它们在不断与外界交互过程中,逐渐变得复杂。
为了适应世界的变化,它们必须持续学习,用一个“博学”的模式来做理解和规划。文章中还提到:“智能是一段时间内的信号处理。”

该研究愿景的第一个特点是强调普通经验,而不是特殊培训集或人力干预。尽管有许多方法可以使用人为输入和领域知识来提高 AI 的性能,但这些方法通常不能适应计算资源,因此并不是本次研究的优先事项。第二个显著特征可以概括为时间一致性。这意味着关于在代理上运行算法的所有时间都是相同的。时间统一问题涉及非平稳、持续的环境与学习算法。
保持所有东西在时间上的统一可以减少自由度,并缩小代理设计空间。不过,文章也提到,在某些情况下,最好是背离绝对的时间一致性。但当这样做的时候,可能会脱离原来的研究领域。
研究愿景的第三个显著特征体现在它对计算因素的考虑。
目前,计算机的能力虽然仍呈指数级增长,但并不会永远持续下去。计算能力越强,有效地使用它越就显得重要。因为这是决定代理绩效的重要因素。
此外,计算方面的考虑还体现在智能代理设计的各个方面。例如,通常一个智能代理能够对其观察结果的变化做出快速反应是很重要的。但是,考虑到计算的限制,反应时间和决策质量之间总是存在权衡。
研究愿景的第四个显著特点是,它包括一个聚焦环境中含有其他智能代理的特殊情况。
在这种情况下,主要代理可以学会与环境沟通、合作和竞争,并能认识到环境可能对其行为做出不同的反应。这个案例被研究为人机交互的一个子领域智能放大(IA,Intelligence Amplification)。
Alberta Plan 将 AI 问题描述为通过持续地感知和行动、有限的计算,在其他代理存在的情况下,在线最大化奖励。这种描述可能看起来很合理,但它与当前的实践相反。
现实中,通常集中于离线学习、准备好的训练集、人工辅助和无限计算。所以以上研究愿景既是经典的,也是逆向的,甚至是激进的。
本次提到的研究计划更多是为了就现有的工作达成共识,从而能进行更有效地沟通和合作。
值得一提的是,研究团队主要围绕基础代理进行设计,其本身是基于“智能代理的通用模型”,该模型也被认为是 AI、神经科学等多领域的共同模型。

论文题目:The Alberta Plan for AI Research
详细解读:https://www.aminer.cn/research_report/631203037cb68b460f1254eficon-default.png?t=M7J4https://www.aminer.cn/research_report/631203037cb68b460f1254ef
AMiner链接:https://www.aminer.cn/?f=cs

你可能感兴趣的:(AI,深度学习,计算机视觉,人工智能)