噔噔!NeurIPS 2023 今天开奖啦!
防止有些同学不太清楚这个会议,我先简单介绍一下:NeurIPS是机器学习领域的顶级会议,与ICML,ICLR并称为机器学习领域难度最大,水平最高,影响力最强的会议,属于CCF A类。主要涉及机器学习、深度学习、CV、优化方法、神经网络与认知科学、稀疏理论等细分方向。
本次大会共公布了6篇获奖论文及1篇时间检验奖,分别为2篇杰出论文,2篇杰出论文(亚军),1篇杰出数据集论文,以及1篇杰出基准论文。其中关于大模型的研究占多数。
下面就让我们一起来看看这些获奖论文吧!
通过一次培训进行隐私审计
作者:Rylan Schaeffer · Brando Miranda · Sanmi Koyejo
「简述:」本文提出了一种用于审计单次训练过程中具有差分隐私保护的机器学习系统的方案。该方案利用了添加或删除多个独立训练样本的并行性。通过分析差分隐私和统计泛化之间的关系,作者避免了组隐私的成本。该审计方案对算法的假设非常少,可以在黑盒或白盒环境中应用。
大型语言模型的涌现能力是海市蜃楼吗?
作者:Rylan Schaeffer · Brando Miranda · Sanmi Koyejo
「简述:」本文提出了一种替代方案来解释大型语言模型中新兴能力的出现。作者认为,这种能力是由于研究者选择的度量标准不同而产生的,而不是由于模型行为随规模变化所致。作者通过数学模型和三种测试方法来支持该替代方案,并提供证据表明所谓的新兴能力可能不是AI模型规模化的基本属性。
(1)使用InstructGPT/GPT-3族对具有声称新兴能力的任务进行预测、测试和确认三个关于度量标准选择的影响;(2)在BIG-Bench上进行元分析,对新兴能力的度量标准选择进行两个预测并进行测试和确认;(3)展示如何在不同的深度网络中选择度量标准以产生以前从未见过的看似新兴的能力。
在数据受限情况下扩展语言模型的方法
作者:Niklas Muennighoff · Alexander Rush · Boaz Barak · Teven Le Scao · Nouamane Tazi · Aleksandra Piktus · Sampo Pyysalo · Thomas Wolf · Colin Raffel
「简述:」本文研究了在数据受限的情况下如何扩展语言模型。作者运行了一系列实验,变化了重复数据的程度和计算预算,范围从9000亿个训练标记和90亿个参数的模型到最大。作者发现,对于固定的计算预算和有限的数据,最多重复4次的训练与使用唯一的数据相比,对损失的影响可以忽略不计。然而,随着更多重复的出现,增加计算的价值最终会衰减为零。
作者提出了一种可扩展的规律性方法,用于计算最优性,该方法考虑了重复标记和多余参数的递减价值。最后,作者还尝试了一些缓解数据稀缺性的方法,包括使用代码数据扩充训练数据集或删除常用过滤器。
你的语言模型实际上是一种奖励模型
作者:Rafael Rafailov · Archit Sharma · Eric Mitchell · Christopher D Manning · Stefano Ermon · Chelsea Finn
「简述:」论文提出了一种名为直接偏好优化(DPO)的新方法,用于微调语言模型以符合人类偏好。这种方法比现有的强化学习方法更简单、更稳定,且效果更好。DPO通过单一阶段的策略训练,就能精确地优化受约束的奖励最大化问题,从而解决了人类偏好数据上的分类问题。实验证明,DPO可以在微调语言模型时,实现对生成情感的控制,提高摘要和对话的响应质量,而且实施和训练更简单。
用于混合物理-机器学习气候仿真的多尺度大型数据集
「简述:」ClimSim是一个大型多尺度数据集,用于混合物理和机器学习的气候模拟研究。这个数据集由气候科学家和机器学习研究人员共同开发,包含了57亿对多元输入和输出向量,这些向量能够隔离局部嵌套、高分辨率、高保真物理对主气候模拟器的宏观物理状态的影响。该数据集还覆盖全球范围,跨越多年且采样频率高,旨在使产生的模拟器与下游的气候模拟器兼容。这个数据集的发布将有助于混合物理和机器学习的气候模拟的发展,从而为科学和社会带来利益。
对GPT模型可信度的全面评估
作者:Boxin Wang · Weixin Chen · Hengzhi Pei · Chulin Xie · Mintong Kang · Chenhui Zhang · Chejian Xu · Zidi Xiong · Ritik Dutta · Rylan Schaeffer · Sang Truong · Simran Arora · Mantas Mazeika · Dan Hendrycks · Zinan Lin · Yu Cheng · Sanmi Koyejo · Dawn Song · Bo Li
「简述:」本文提出了一种针对大型语言模型(如GPT-4和GPT-3.5)的全面可信度评估方法,重点关注了毒性、刻板印象偏差、对抗鲁棒性、分布外鲁棒性、对抗演示鲁棒性、隐私、机器伦理和公平性等多个方面。通过评估,作者发现了一些以前未公开的可信度威胁漏洞,例如GPT模型容易受到误导而生成有毒和有偏见的输出,并在训练数据和对话历史中泄露私人信息。此外,尽管GPT-4在标准基准测试上通常比GPT-3.5更可信,但在系统或用户提示下,GPT-4更容易受到攻击,可能是因为GPT-4更精确地遵循(误导性)指令。
单词和短语的分布式表示及其组合性
作者:Tomas Mikolov、Ilya Sutskever、Kai Chen、Greg Corrado、Jeffrey Dean
「简述:」本文介绍了一种高效的连续Skip-gram模型,用于学习高质量的分布式向量表示,该表示可以捕捉大量精确的句法和语义单词关系。作者提出了几种扩展方法,以提高向量质量和训练速度。通过对频繁单词进行子采样,作者获得了显著的加速,并学习了更规律的单词表示。作者还描述了一种名为负采样的简单替代方案,以替代分层softmax。
关注下方《学姐带你玩AI》
回复“NeurIPS获奖”获取全部论文+开源代码
码字不易,欢迎大家点赞评论收藏