本文感兴趣的是研究是否可以利用人类注视信号来提高最先进的搜索引擎性能,以及如何将这个以人类注意力为标志的新输入信号整合到现有的神经检索模型中。在本文中,作者提出了GazBy (Gaze-based Bert model for document,relevancy),这是一种轻量级的联合模型,将人类注视估计集成到transformer模型中来预测文档相关性,将更细微的认知加工信息整合到信息检索(IR)中。我们在文本检索会议(TREC)深度学习(DL)2019年和2020年的轨道上评估了本模型。我们的实验显示了令人鼓舞的结果,并说明了使用人类注视来帮助基于转换器的神经检索器的有效和无效的切入点。随着虚拟现实(VR)和增强现实(AR)的兴起,人类的注视数据将变得更加可用。我们希望这项工作能作为在现代神经搜索引擎中使用注视信号的第一步。
神经检索器应用深度神经网络来解决文档检索和段落检索等信息检索问题。神经网络有一个任务,根据文档与查询的相关性对查询-文档对进行评分。这些方法通常分为基于表示的(如DSSM和SNRM)和基于交互的神经检索器(如DRMM,KRNM和DeepTileBars)。
基于表示的神经检索器分别对查询和文档进行编码,并在稍后计算和之间的相关性得分时对它们进行交互。每个查询和每个文档都被编码为一个固定大小的嵌入向量。另一方面,基于交互的神经检索器在索引时间或查询时间中生成一个查询文档交互矩阵,并将其输入神经网络,以预测和之间的相关性得分。请注意,在基于表示的方法中,查询文档交互在检索阶段出现较晚;而在基于交互的方法中,查询-文档交互出现较早,因为它们从一开始就处理(,)对——要么从索引阶段(例如,像传统检索方法那样构建反向索引时),要么从重新排序过程的开始。
目前,几乎所有最有效的神经检索模型,包括MonoBERT和ColBERT,都使用了BERT,这是一种由transformer architecture架构预先训练的深度语言模型,用于屏蔽语言建模和下一个句子预测的任务。
BERT嵌入也被最近的神经检索器广泛应用于衍生函数中,主要是为了获得有意义的三元水平权重。在神经检索器中采用BERT表示,或直接使用或从中衍生,已成为信息检索(IR)的主要研究热点。
然而,在NLP中,在查看BERT的转换器块和层的内部时,它的注意力和转换器头的权重有时是值得怀疑的。Abnar和Zuidema已经表明,BERT的注意力头部权重“在更高的模型层中通常近似于几乎均匀的分布”。霍伦斯坦和贝伯恩的研究表明,BERT的注意力和头部权重与人类语言处理模式的相关性较差。Gao和Callan还指出,“直接走出训练前的BERT具有非最优注意结构”,他们提出在密集的检索器中短路BERT的不同变压器层的信息流。所有这些都表明,尽管这些基于BERT的神经检索取得了前所未有的成功,但它们所利用的核心元素——BERT,并不像我们想象的那么完美。
最近一个改进BERT嵌入的尝试是从另一个注意力来源——人类的注视——寻求帮助。人类注视建模过去是由使用手工制作的特征实现认知理论的模型主导的,这些模型虽然很容易解释,但通常很难在机器学习中使用。现代人类注视建模使用神经网络来预测注视注视的持续时间。
人类凝视的使用可以在计算机视觉和自然语言处理(NLP)任务。人类凝视包含了关于人类认知加工的更微妙的信息,因为它与阅读理解的相对重要性高度相关。凝视的使用已经在信息检索中中被探索过。它主要被用作预测文本显著性和理解相关性的一种方法。然而,现有的工作并没有针对预先训练过的变压器模型进行特别检索。据我们所知,人类的注视注意力还没有应用于神经检索器的文档或文章检索。
本文探索将注视信号纳入两种最有效的基于转换器的神经信息检索方法。一个用于MonoBERT,另一个用于ColBERT。通过一个轻加权的人类注视预测模型,来证明一个概念,是否可以使用人类注意力分数来提高变压器的计算注意力分数,并改进临时检索。我们提出了GazBy (Gaze-based Bert model for document,relevancy),一个联合模型,将人类注视估计集成到transformer模型来预测文档相关性,将关于认知处理的更细微的信息整合到IR中。联合模型有一个注视预测成分和一个相关性评分成分。使用GECO和Zuco凝视数据集训练本文的凝视预测模型,并在2019年文本检索会议(TREC)深度学习(DL)和2020年Track中使用MonoBERT和ColBERT对段落重新排序任务进行测试。
这项工作主要研究如何将人类注视注意力整合到基transformer的检索模型中。在这项工作中,作者广泛地探索以寻找将人类注视注意与计算上下文注意相结合的最佳方法,从而帮助进行特别检索。
本文发现,在整个检索过程中,在特定时刻纳入人类的注视注意是很重要的。实验表明,当其查询的文档交互发生时,人类的注意力应该合并到一个基于转换器的检索模型中:
本文也研究了在其神经网络结构中合并注视的其他地方,然而,它们产生的结果明显较差。例如,如果将注视注意分数纳入到ColBERT的变压器层的注意机制中,这发生在交互之前,它会显著损害系统的有效性。为什么查询-文档交互发生的地方很重要?我们认为,注视注视预测对每个标记表示的影响加权应该发生在查询和文档交互过程中,因为注视预测本身是查询和文档标记交互的另一种形式。这种交互作用通过注视预测模型的transformer层发生的。通过基于注视的人类注意来加权查询和文档token之间的交互,作者调整了注视预测模型和预先训练的转换器模型之间的交互操作,从而允许本模型在上述情况下产生有希望的结果。
综上所述,本论文有以下贡献:
(1)一种将人类注视注意力纳入基于转换器的神经检索模型的机制;
(2)在两个最先进的基于transformer的神经信息检索模型上的概念证明,显示了有希望的结果;
(3)在神经信息检索模型中合并人类注视预测的研究。
特别检索的目的是找到查询的最佳文档,从结构上讲,它是一个涉及两个输入的任务,查询和文档。它必须在两个输入之间执行交互作用,也称为笛卡尔数学,并为这对产生一个单一的相关性分数。这种不可避免的交互作用在不同的检索算法中以不同的形式出现。在传统检索模型和基于交互的神经检索方法中,我们可以找到它作为相似度评分函数(,)(如余弦相似度、点积、神经匹配核和);和的联合操作(例如,在传统检索方法中建立反向索引,以及基于交互的神经检索方法中的神经交互);以及基于transformer的神经检索器变压器层中的“缩放点积注意”。
神经信息检索是深度神经网络在解决文档检索和段落检索等信息检索问题中的应用。这些方法可以分为基于表示的和基于交互的。
基于表示的检索器使用双编码器设置,它分别对查询和文档进行编码,并在稍后计算它们之间的相似性得分时对它们进行交互。每个查询和每个文档都被编码为一个固定大小的嵌入向量。嵌入向量可以是密集的,也可以是稀疏的,它们对应于最近流行的密集检索器和稀疏检索器。ColBERT是一种基于表示的检索器。
基于交互的检索器在索引时间或查询时间中生成一个查询-文档交互矩阵,并将其输入神经网络以预测相关性得分。基于交互的检索器(包括前神经和神经)以其更好的检索效率而闻名。**MonoBERT使用交叉编码器设置,是一种基于交互的检索类型。**它采用了查询术语和文档术语之间广泛交互的全面方式。
在本文中,作者发现当交互发生时,一个关键的信息,以确定在哪里将人类注视注意力合并到基于transformer的检索模型。查询-文档交互可以出现在算法的早期,例如在传统检索方法中构建反向索引时的索引时间期间,在基于交互的神经检索模型中的早期联合操作期间,以及在MonoBERT中的所有交互期间。它也可能出现在算法中的时间较晚。例如,基于表示的神经检索方法中的相似度计算的最后一步,以及ColBERT中的算子。
本工作受到人类凝视的使用以及在CV和NLP任务中获得的改进。
人类注视建模过去是由手工制作的特征实现认知理论的模型主导的,这些特征虽然容易解释,但往往很难在机器学习中使用。现代的建模方法使用神经网络来预测人类的句子处理。研究发现,与使用没有注视输入或监督的模型相比,这些注视的使用和建模可以提高机器学习模型在人类语言相关任务上的表现。
在深度学习时代之前,凝视的使用就已经在信息检索中被探索过了。
他们根据用户在浏览器上浏览网页段的时间以及描述该网页段内容的特征来模拟用户的注意力。他们展示了在网络搜索、新闻、维基百科、购物和社交网络网页域名上检索相关搜索结果的改进。然而,他们的方法并不针对神经信息检索。
据我们所知,人类注视注意力还没有应用于神经检索模型中的文档或段落检索。
本文提出了一种轻量级的GazBy联合模型,它将人类注视估计结合到基于transformer的检索模型中,目的是在信息检索中引入更细微的文本信息到信息检索。本文用MonoBERT和ColBERT来探索改想法,其中MonoBERT是一个交叉编码器(基于交互的检索器),在查询和文档之间的早期交互,ColBERT是一个双编码器(基于表示的检索器),在检索过程的后期执行交互。
图1显示了GazBy的整体架构。GazBy有两个主要组成部分。第一个是注视预测模型。第二个是基于transformer的检索模型。根据基于transformer的检索器的架构,GazBy将注视预测模型与它结合起来。交叉编码器是基于transformer的检索模型,它使用单个编码器为q-d对创建嵌入,而双编码器分别将q和d嵌入。它们分别对应于基于交互的和基于表示的神经检索器。因此,本文有两种GazBy的变体:为交叉编码器(基于交互)设计的GazBy-c,为双编码器(基于表示)设计的GazBy-b。
图1中的绿色部分显示了注视预测模型的架构。参考两篇文献,BiLSTM与transformer的结合与人类注视处理模式具有最相似的预测。本文在GazBy-c和GazBy-b中使用的注视预测模型是相同的。它首先接收预处理文本中的标记,可以是查询或文档(如GazBy-b),或查询和文档的连接(如GazBy-c)。这些token被输入到一个嵌入层中,然后是一个具有128个隐藏单元的BiLSTM层和四个具有四个注意头的自注意变压器层。最后,利用全连通前馈网络(FFN)预测文本 x → \overrightarrow{x} x中每个标记 _ xi的注视得分 ( ) (_) g(xi):
预测的注视得分越高,注视于一个标记的时间就越长。
图1a显示了交叉编码器GazBy (GazByc)。它将查询和文档作为一个输入连接起来,并输入到注视预测模型中,以获得word的注视分数。这些注视分数然后被用来修改交叉编码器检索模型编码器层。当编码器执行多维缩放的点积注意时,它是通过用注视分数来加权注意分数来完成的。交叉编码器的主体采用了BERT大型架构,使用24个注意层,每个层有16个注意头。这个联合交叉编码器模型通过使用前馈神经网络的学习到的[CLS]来判断相关性:
其中 , , _,_,_ Ki,Vi,Qi是,,表示的注意头 i。是注意层中的一个内部变量。此外,是每个头部中,,的第二个维度。是在 = + =_{}+_{} n=qlen+dlen行上重复的 ( , ) (,) g(q,d), _ El是在 h ^{ℎ} lth编码器层之后获得的嵌入。 , V , W ^{_},^{V_},^{W_} WKi,WVi,WWi是在 h ^{ℎ} lth编码器层映射 h ^{ℎ} ith注意头映射 − 1 _{−1} El−1到 , , ∈ × _,_,_ ∈× Ki,Vi,Qi∈n×dim的学习参数张量。
图1b是GazBy (GazBy-b)的双编码器变体。它将查询和文档作为两个单独的输入发送到注视预测模型中,以获得相应的注视分数。它还将查询和文档分别发送到一个BERT大型编码器中,该编码器仅对查询或文档术语执行多头缩放的点积关注。最后,使用改进的函数计算(q,d)相关性得分,它是对每个查询项最相似的文档项的余弦相似度的加权总和,通过使用其注视得分对每个相似度进行加权:
本文提出一个注视预测模型,目的是将注视时间估计为一个文本 x = [ 1 , 2 , . . . , ] x=[_1,_2,...,_] x=[x1,x2,...,xn]中每个token _ xi的计算分数 ( ) () g(x)。 ( ) () g(x)的值越大,标记 _ xi的注视时间越长。
输入文本序列首先被tokenize,然后用特殊的标记填充。Wordpiece标记器用于将输入字符串 x分割成一个标记 1 , 2 , . . . , _1,_2,...,_ x1,x2,...,xn序列。为了与基于transfomer的检索模型兼容,在 input embeddings中添加了特殊的标记,[CLS],[SEP],[PAD],输入文本被转换为 [ C L S ] , 1 , 2 , . . . , , [ S E P ] , [ P A D ] , . . . , [ P A D ] [CLS],_1,_2,...,_,[SEP],[PAD],...,[PAD] [CLS],x1,x2,...,xn,[SEP],[PAD],...,[PAD]。
注视预测的神经网络从一个嵌入层开始。GloVe用于将每个token编码为一个300维的向量。然后,将整个嵌入的数据输入到一个BiLSTM层中,并将其传递到一个四层的四头自注意变压器层中。最后,我们将得到的嵌入输入到一个完全连接的层中,以得到每个输入token的注视预测。特殊标记是不存在的单词,没有任何关注。因此,在训练过程中,我们将所有特殊标记的ground truth labels标记为[ZERO],这就阻止了注视预测模型对它们进行评分,并夸大有意义的单词的权重。子词被标记为相同的ground truth labels注视标签,它是它的一部分。
本文的注视预测模型是在GECO和ZuCo上训练的。表1显示了这两个数据集的统计数据。它们被组合成一个单一的集合,并将其注视目标值标准化到[0,1]的范围内。它们相当小,总共有大约6000个句子。神经网络的训练和优化采用Adam进行,学习速率为0.0001。作者对该模型进行了100个epoch的训练,得到了10倍交叉验证的均方误差为0.004
首先对每个查询文档对进行标记,并插入[CLS]和[SEP]标记: [ C L S ] + 1 . . . + [ S E P ] + 1 . . . + [ S E P ] [CLS]+_1..._{_{}}+[SEP]+_1..._{_{}}+[SEP] [CLS]+x1...xqlen+[SEP]+x1...xdlen+[SEP]。将连接的q-d对输入到注视预测模型中。
然后将这个q-d对输入 L总编码器层的 L − 1 L-1 L−1层中,其中每个编码器层使用多头注意,添加和归一化,以及前馈网络。到第一个编码器层的输入序列是输入token序列的Wordpiece embeddings。每个后续的编码器层接收前一个编码器层的输出作为输入。多头注意表示每个编码器层的输入嵌入在一组三个张量的几个注意头,关键张量 _ Ki,值张量 _ Vi和查询张量 _ Qi,对第 i个注意头使用矩阵乘得到权重矩阵 ^{_} WKi, V ^{V_} WVi, Q ^{Q_} WQi。在第一个 L − 1 L-1 L−1编码器层中发生的注意采取的形式是: ( Q × K T d i m ) × (\frac{Q× K^T}{\sqrt{dim}})× Softmax(dimQ×KT)×V。这里的“注意”分数是由矩阵 × ×^ Q×KT组成的,它表示token i在一个长度为 n的序列内对token j的注意量。
第三,作者在最后一个编码器层中执行一个改进的多头注意。这样做是,每个token对所有其他token的注意力分数通过被关注的token的预测注视时间进行加权。在缩放点积注意中,这相当于将关键层乘以每个术语的固定时间,扩展到大小,即查询文档序列的关键层表示中的列数。新提出的注意机制是
( Q × ( K ⊙ G ) T d i m ) × (\frac{Q× (K\odot G)^T}{\sqrt{dim}})× Softmax(dimQ×(K⊙G)T)×V
其中,表示元素乘法为 ⊙ ⊙ ⊙,矩阵乘法 × × ×。这种缩放的注意机制确保了最重要的术语对查询-文档对得分有更大的影响。接受更多注视的单词具有更大的影响,因为 × × n×n的嵌入空间中的注意矩阵旨在展示 i行中的每个单词对 j列中的每个单词的关注程度。通过元素级将张量乘以注视 ∈ × ∈× G∈n×dim,当 K和 Q张量在注意张量 × ×^ Q×KT中相互作用时,作者通过第 j j j个embedding的注视分数将第 i i i个embedding缩放(映射)到第 j j j个embedding上【这也是用点乘的原因】。
除了GazBy-c的设置,作者还试图将注视加权比例点积注意纳入编码器的所有层(GazBy-c所有层),以及通过将Wordpiece embeddings 输入到第一层使用第一步获得的注视分数(GazBy-c第一层)。
最后通过最小化相关标签上的交叉熵损失来训练注视预测模型和编码器层的参数作为一个二元分类问题。
L o s s = − ∑ k ∈ R + log ( S ( q , d ) k ) − ∑ k ∈ R − log ( S ( q , d ) k ) Loss=-\sum_{k∈R^+}\log(S(q,d)_k)-\sum_{k∈R^-}\log(S(q,d)_k) Loss=−k∈R+∑log(S(q,d)k)−k∈R−∑log(S(q,d)k)
其中 + ^+ R+是相关的查询和文档对, − ^− R−是训练数据中的无关对。 ( , ) k (,)_k S(q,d)k是GazBy-c的 ( q , d ) (q,d) (q,d)对的分数。
本文提出在查询和文档交互时,将注视预测分数纳入ColBERT中。首先,使用Wordpiece tokenizer分别对查询和文档进行tokenize,并得到两个项序列: 1 , 2 , . . . , _1,_2,...,_{_{}} q1,q2,...,qqlen和 d 1 , d 2 , . . . , d d d_1,d_2,...,d_{d_{}} d1,d2,...,ddlen。GazBy-b将[Q]添加到 input Wordpiece query tokens, [ C L S ] + [ Q ] + 1 … + [ S E P ] [CLS]+[Q]+_1…_{_{}}+[SEP] [CLS]+[Q]+q1…qqlen+[SEP],并将document indicator token [D]添加到文档input tokens [ C L S ] + [ D ] + 1 . . . + [ S E P ] [CLS]+[D]+_1..._{_{}}+[SEP] [CLS]+[D]+d1...ddlen+[SEP]。通过将BERT的[mask]标记填充查询术语,使其预定义长度为 _ Mq,而不增加文档。
其次,将标记化的q和d项输入注视预测模型,获得每个term的注视预测 ( 1 ) , ( 2 ) , . . . , ( ) (_1),(_2),...,(_{_{}}) g(q1),g(q2),...,g(qqlen)和 ( d 1 ) , ( d 2 ) , . . . , ( d d ) (d_1),(d_2),...,(d_{d_{}}) g(d1),g(d2),...,g(ddlen)。
第三,在第二步的同时,将tokenize的查询和文档输入到两个独立的BERT编码器和完全连接的层中,以获得每个术语的上下文表示: q 1 → , . . . , q q l e n → \overrightarrow{q_1},...,\overrightarrow{q_{q_{len}}} q1,...,qqlen和 d 1 → , . . . , d d l e n → \overrightarrow{d_1},...,\overrightarrow{d_{d_{len}}} d1,...,ddlen。
第四,使用一个改进的算子来计算相关性得分 ( , ) (,) S(q,d):
S ( q , d ) = ∑ i q l e n g ( q i ) ⋅ max j c o s i n e ( q i → , d j → ) ⋅ g ( d j ) S(q,d)=\sum^{q_{len}}_{i}g(q_i)·\max_{j} cosine(\overrightarrow{q_i},\overrightarrow{d_j})·g(d_j) S(q,d)=i∑qleng(qi)⋅jmaxcosine(qi,dj)⋅g(dj)
通过最小化成对交叉熵损失来优化GazBy-b:
L o s s = − ∑ k ∈ R + log ( S ( q , d ) k ) − ∑ k ∈ R − log ( S ( q , d ) k ) Loss=-\sum_{k∈R^+}\log(S(q,d)_k)-\sum_{k∈R^-}\log(S(q,d)_k) Loss=−k∈R+∑log(S(q,d)k)−k∈R−∑log(S(q,d)k)
注意,当q-d互动发生时,注视分数是添加的。为了测试它是否可以在其他地方完成,本文也有一个变体,GazBy-b Last Layer,,这样它就可以将注视预测乘以最后一个编码器层的注意分数。此外作者还测试了在注意层和函数上添加注视预测分数(这种设置称为GazBy-b组合)。
TREC DL 2019-2020 Tracker中使用的文档集是基于MS MARCO的训练数据,这是微软在2016年创建的数据集。创建数据集的目的是使用具有稀疏标签的训练数据改进特别检索,模拟“真实世界”检索,其中通过用户点击日志的相关文档数量是稀疏的。MS MARCO收集了880万篇网页文章和100万条必应用户搜索量。数据集中没有任何文档被标记为无关文档,并且每个查询都与一个或多个正段落相关联。
对于二值化判断尺度的指标,我们将段落判断级别2和3映射到相关的,并将文档判断级别0和1映射到不相关的。本文使用TREC的评估脚本来计算检索到的结果上的上述指标。表2显示了实验中使用的数据集的统计数据。
本文实验集中在段落重新排序任务上。作者评估了TREC DL 2019年和2020年的段落重新排序任务上的所有基线和所提出的模型,为此,对NIST为每个查询提供的1000篇段落进行了重新排序。
为了评估检索的有效性,本文采用了TREC DL的官方评价指标
4.3.1 Baselines:
4.3.2 Cross-encoder GazBy variations:
4.3.3 Bi-encoder GazBy variations:
4.3.4 Training, Validation, and Testing
训练数据采用三元组的形式: (query, positive passage, negative passage))。这些三元组是由TREC提供的训练条件生成的。验证三元组以相同的格式提供。作者训练所有的GazBy-c模型和MonoBERT基线的4k数据训练3epoch。本模型是基于Hugging Face implementation实现的BERT的序列分类。MonoBERT checkpoint在微调之前从castorini加载,这已经在MS MARCO文档集合上进行了训练。对于每个epoch,作者使用700个开发三组的子集进行验证,以提高验证速度,在预测时选择验证精度最高的模型。我们在TREC DL列车三组集合上对所有GazBy-b模型和ColBERT基线进行了50,000步的训练,批处理大小为32。所有的GazBy-c和GazBy-b模型都使用了学习速率为 3 − 6 3^{−6} 3e−6和Font metrics not found for font: .的Adam优化器进行训练。三个GeForce RTX NVIDIA gpu用于训练。
表3报告了官方TREC DL 2019和2020年段落重新排序任务的搜索有效性的主要实验结果。
请注意,MonoBERT和ColBERT的高性能增益依赖于大规模的预训练模型,该模型使用优越的计算能力进行了广泛的训练。相比之下,作者加在它们上面的凝视模型则相当轻。本文的注视预测模型只训练了超过6000个句子,并且注视预测模型的参数远少于BERTLarge。鉴于本文提出的方法所需要的资源有限,可用的注视训练数据有限,GazBy所取得的改进在神经信息检索方面显示了一个有前途的新方向。
本文研究了将人类注视注意力纳入现有的基于transformer的神经信息检索模型的有效方法,这些模型在很大程度上得益于计算注意力使用的最新发展。基于TREC DL 2019和2020 Track的实验,一个关键的发现是,在transformer模型中,唯一有效的人类注视注意力和计算注意力的合并点是在检索算法中发生查询-文档交互时。
本实验可以烁明,使用注视来帮助建立基于转换器的检索模型是令人鼓舞和有效的。此外,如何以及在哪里将两者结合起来对它们的联合效果有显著影响:可以将注视分数添加到注意力层中,这对MonoBERT有效,但对ColBERT不适用。
作者在目前决定该场方向的模型上进行了广泛的实验。研究了两个基于转换器的检索器,一个基于交互,一个基于表示。作者下一个直接工作将是调查我们对其他传统和非transformer神经检索器的发现,如最近的密集检索器和稀疏检索器。
作者承认其凝视数据的假设可能是不正确的。本文假设凝视数据非常适合于人类在确定查询和记录文本是否相关时应用于查询和记录文本的凝视类型,正如相关性评分中的任务一样。这种假设是有必要的。信息检索与基于信息需求的关注有关。当人类被试试图理解候选文本是否与他们的需求相关时,这种人类的注意力是人类对候选文本的注意模式。例如,一个受试者在阅读一篇文章时可能会使用基于需求的注意力来确定它是否与一个关于相关主题的问题相关。
相比之下,用于预训练模型的人类注意力数据是基于理解的:GeCo和ZuCo数据集中的受试者正在阅读以理解他们的文本。因此,用来预先训练注视预测模型的人类注意数据的类型和搜索引擎用户为确定查询文档相关性而表现出的注意类型之间是存在差异的。鉴于这一事实,我们的工作寻求成为未来努力的一个起点。随着AR/VR技术的出现,显示执行相关性评分的人类受试者注视的设备和数据集将更加可用。在未来的工作中,作者试图通过使用这些数据(例如,使用注视数据来检索神经检索器来改进GazBy),并将注视预测合并在基于非转换的模型中,以了解哪里可以最好地应用凝视。本文的发现表明,这些模型中的查询和文档之间的交互将是这些努力的一个很好的起点。
者承认其凝视数据的假设可能是不正确的。本文假设凝视数据非常适合于人类在确定查询和记录文本是否相关时应用于查询和记录文本的凝视类型,正如相关性评分中的任务一样。这种假设是有必要的。信息检索与基于信息需求的关注有关。当人类被试试图理解候选文本是否与他们的需求相关时,这种人类的注意力是人类对候选文本的注意模式。例如,一个受试者在阅读一篇文章时可能会使用基于需求的注意力来确定它是否与一个关于相关主题的问题相关。
相比之下,用于预训练模型的人类注意力数据是基于理解的:GeCo和ZuCo数据集中的受试者正在阅读以理解他们的文本。因此,用来预先训练注视预测模型的人类注意数据的类型和搜索引擎用户为确定查询文档相关性而表现出的注意类型之间是存在差异的。鉴于这一事实,我们的工作寻求成为未来努力的一个起点。随着AR/VR技术的出现,显示执行相关性评分的人类受试者注视的设备和数据集将更加可用。在未来的工作中,作者试图通过使用这些数据(例如,使用注视数据来检索神经检索器来改进GazBy),并将注视预测合并在基于非转换的模型中,以了解哪里可以最好地应用凝视。本文的发现表明,这些模型中的查询和文档之间的交互将是这些努力的一个很好的起点。