The generalized context model: an exemplar model of classification阅读笔记

The generalized context model: an exemplar model of classification

广义上下文模型:分类的示例模型


包括Model description 、MotivationImplementation recommendations三部分


广义上下文模型(generalized context model,GCM)

多维缩放模型(multidimensional scaling,MDS)

经典相似选择模型(similarity-choice model,SCM)


模型介绍

广义上下文模型(GCM)指的是人们在记忆中存储类别的示例,然后根据项目与示例的相似性进行分类。GCM采用多维缩放模型(MDS)来表示示例之间的相似性关系,每个示例被表示为多维心理空间中的一个点,两个示例之间的相似度随着它们在空间中的距离的增大而降低。

该模型假设示例之间的相似度并不是固定不变的,而是高度依赖于上下文环境,其原理在于不同环境下对不同维度的选择性注意权重不同,使得心理空间的结构变化:当被试高度关注某一方面时(选择性注意权重较大),该维度在心理空间中就会“拉伸(stretch)”,而不关注的方面则会“收缩(shrink)”,拉伸和收缩会对项目之间的相似度产生影响。该模型还假设示例在记忆中存储的强度不同,因为不同示例的呈现频率、呈现形式都不同。进行分类时,最可能被回忆起来的是记忆强度高且与项目高度相似的示例,该示例会影响分类判断。

上图说明了GCM的原理。上边显示了同时关注水平维度和垂直维度的结构,共有A、B两类,每类有5个示例,示例的大小表示记忆强度。i为测试项目,其与A、B类的距离差不多,所以与两类的相似度大致相同,分类概率均为0.5。下边显示了选择性关注水平维度后的结构,水平方向的拉伸表明水平维度更重要。此时类别A、B的示例之间的相似度更低,且i与A类更相似,所以i被归为A的概率更大。通过选择性注意策略(selective-attention strategy),被试尝试针对给定的分类任务优化相似性关系,这种策略对分类预测有重要影响。


GCM的操作:首先是初始训练阶段,向被试提供n个项目及反馈,然后进行测试,同时提供旧项目和新项目,将它们分为KN个类。则测试时将项目i归入J类的概率为:

(1)

其中,sij表示项目i与示例j之间的相似性;VjJ表示J类中示例j的记忆强度,通常用训练阶段j被反馈为J类的频率表示;γ是自由估计的响应缩放参数(0 <γ),关系到分类时的信心大小,γ=1表示被试仅根据概率进行分类,γ>1表示被试对该分类反应更加确定;bJ(0

为了计算sij,设xjm表示m维度上示例j的值,则项目i与示例j在心理空间的距离由幂模型算出:

(2)

其中,r确定距离度量的形式:在涉及高度可分维度刺激(separable-dimension stimuli)的情况下,r=1,属于块距离度量(city-block distance metric);在涉及积分维刺激(integral-dimension stimuli)的情况下,r=2,属于欧式距离度量(Euclidean distance metric)。wm是自由估计的注意力权重(0≤wm≤1,且∑wm= 1),反映了被试在判断时对维度m的关注度,影响空间的拉伸和收缩。则相似度:

(3)

其中c是自由估计的灵敏度参数,反映相似度随距离下降的速率。当c较大时,相似度随着空间距离的增加而迅速下降,只有与示例高度相似的项目才能被归为此类。p值确定相似度与距离相关的函数的形状(一般情况下p=1,而涉及高度易混淆刺激的情况下,p=2)。


Motivation

Nosofsky(1984,1986)将原始的上下文模型与相似性领域的理论进行整合,提出了GCM。GCM与仅涉及二进制和可分离维度的简单原始模型不同,其应用大多数是在连续域中,可以很容易地预测涉及积分维刺激和可分离维刺激的分类性能。此外,GCM模型与经典相似选择模型(SCM)之间有强相关性。SCM是用于预测识别范式中混淆概率的描述性模型,其中将刺激i识别为刺激j的概率为

(4)

其中bj(0

识别范式涉及刺激到反应的一对一映射,分类范式涉及刺激到反应的多对一映射,而Nosofsky(1986)的映射假设(mapping hypothesis)使用一对一映射范式的数据来预测多对一映射范式中的性能。在分类范式中,只要刺激与自己类别的另一个成员相混淆,就会导致正确的分类响应,而类间刺激相混淆会导致分类响应错误。

图2。识别范式中有n个刺激,每个刺激都属于唯一的分类。左图是刺激-响应(S-R)混淆矩阵,每个单元格(i,j)给出了将项目i识别为刺激j的条件概率,假设图中刺激1~4属于A类,5~8属于B类,根据映射假设,因为刺激3与刺激1~4相混淆,所以3总是归类正确。

右图是用于分类实验的8×2混淆矩阵,表示类别数KN=2的情况。如果映射假设是正确的,则将刺激i与类别J的任何成员相混淆的概率相加,即可得出将刺激i分类为类别J的概率。即通过将刺激3在识别任务中分别被识别为刺激1~4的概率相加,可以预测将刺激3归为A的可能性。选择性注意会导致相似性参数在识别和分类范式中发生改变,所以映射假设还需要深入研究。


Medin和Schaffer(1978)在最初的模型中提出了用于计算刺激相似度的多维乘积规则(inter-dimensional multiplicative rule)。刺激i和j的相似性:

(5)

其中,sm(0≤sm≤1)是自由估计的m维度上的相似度;δ是一个变量,如果刺激i和j在维度m上不匹配,则δ=1;如果二者在维度m上匹配,则δ=0。因此,刺激i和j之间的总体相似度是二者在每个不匹配维度上相似度的乘积。该乘积规则是MDS的一种特殊情况,即公式(2)(3)中的p = r。在GCM中使用MDS方法可将模型更广泛地应用于各种分类领域。

由于涉及基于示例的分类和非线性相似性规则,GCM对特定示例以及类内结构高度敏感。所以产生了问题,如两个刺激i和j,i与某分类的原型更相似,j与该类的特定示例更相似,哪个被归为此类的概率更大?研究发现,与原型具有高度相似性的刺激比与原型示例高度相似的刺激对被试的影响更大。具有非线性相似性规则的GCM模型可以说明这种影响,而原型模型则不能。

参数分析

在实验的训练阶段,记忆强度(公式1的V)与每个刺激和类别反馈相结合的相对频率成正比。

公式(2)中的注意权重参数(wm)和公式(3)中的灵敏度参数(c)依靠被试假定。许多情况下,最合适的权重wm接近被试理想的权重。在个体水平上进行判断时,公式(1)的响应缩放参数γ很重要,以使模型能捕获被试使用的确定性响应策略。实践表明,固定的γ值不会很大地降低预测精度。

对于高度可分维的刺激,假定相似度与距离关联的指数衰减函数中(公式(3)中的p)p=1,且公式(2)的r=1,为块距离度量。相反,在涉及高度易混淆的知觉刺激的情况下,值p = 2和r = 2可以提供更好的拟合度。

通常,假设响应按类别分布为多项式,使用最大似然准则将GCM拟合到分类选择概率数据。最近发现可以使用通用计算机程序包对GCM进行贝叶斯分析,从而可以推断和解释不同实验操作对心理的影响。

你可能感兴趣的:(The generalized context model: an exemplar model of classification阅读笔记)