Nosofsky, R. M. (2011). The generalized context model: An exemplar model of classification. Formal approaches in categorization, 18-39.
1、概念概述
(总结起来是四个假设:基于范例的代表性假设,其基于MDS的相似性假设,选择性注意假设,记忆强度假设)
根据广义上下文模型(GCM),人们通过存储一些范例来表征某类物体,如果一个新对象与这些范例足够相似,那就会被归为这一类。
一般采用多维尺度(MDS)分析来模拟样本之间的相似性关系。范例被定位在多维心理空间的一点上,范例之间距离越远,相似性越低。应用中,建模的第一步是进行相似性研究,获得样本的MDS,确定样本在多维空间中的位置。一个关键假设是,相似性不是一直不变的,它高度依赖情境。比如,强调结构时,人和人体模型的相似度极高,但强调生命力时,就不高了。为满足这一假设,设置了一组选择性注意力权重,用来修改多维空间的结构,在高度关注的相关维度“拉伸”心理空间,在不相关维度“收缩”空间。
最后一个假设是,每一范例可能以不同的记忆强度存储在记忆中。分类测试项时,范例的记忆强度越高、与测试项的相似度越高,对分类决策的影响越大。
图1是对上述概念的具体应用。已知两个类别A、B,每类中有5个范例,每一范例有两个维度,被试的任务是将i归为其中一类。被试会分别计算i与类别A/B的范例的相似性总和(以范例的记忆强度为权重),确定归属类别。在上方图中,两个类别的相似性基本相等,所以概率相等。下方图中,设置条件为水平维度更相关,采用上述的选择性注意策略,“拉伸”水平维度,“收缩”垂直维度,分类预测结果受到影响,测试项与A的范例的相似度更高,被试有更高的概率选择类别A。
2、计算公式(下标都没了…)
①公式1:有KN个类别,需将项目i分到其中一类中去,计算分到类别f的概率
其中,j指类别f中已有的范例。sij指i与j之间的相似度。Vjf指j相对于类别f的记忆强度,由实验设计的性质决定,一般学过的刺激设为1,未学的设为0。γ是响应尺度参数,是个自由参数,作用是影响决策时的确定程度,如果γ=1,那么概率P与相似度总和呈线性关系,如果γ>1,那么更有可能选择相似度总和最大的类别。bf指类别f的响应偏差。
用i与f的相似度总和除以i与所有类别的相似度总和,即可知i归属于类别f的概率。
②公式2:计算公式1中的sij,需要先算dij
xjm表示样本j在第m维度上的值;参数r反应度量距离的形式,在刺激各维度可分离时,设置为1,刺激的各维度不可分离(也就是高度混淆)时,设置为2;wm是注意权重参数(0≤wm≤1,∑wm = 1),也是个自由参数,反映了对各维度的注意程度,几何解释就是前文提到的拉伸和收缩心理空间。
③公式3:计算sij
c是灵敏度参数,也是自由参数,反映了相似度随距离减小的速率。p决定函数的形状。在大多数情况下,p设置为1;刺激的各维度不可分离时,p设置为2。
④在这三个公式中,只有三个自由参数:响应偏差参数b和响应尺度参数γ,注意权重参数wm,灵敏度参数c。其余参数均由实验设计的性质确定,或由独立的来源衍生。
3、实验应用:实验结果支持了选择性注意假设
刺激物是嵌有径向线的半圆形,半圆的大小和径向线的角度各有四个水平,共16个。
设有四种不同的分类方式(图2),对于每一方式,被试先学习其中8个刺激,训练形成两种类别的概念,然后测试16个刺激,记录分类正确率,将结果与模型预测的结果比较。图中,列对应不同的角度,行对应不同的大小。有数字1的空格代表这是第1类的训练刺激,有数字2的空格代表这是第2类的训练刺激,没有数字的空格代表这是用来转移测试的刺激。训练阶段,提供训练刺激以及纠正性反馈。测试阶段,提供训练刺激和测试刺激,训练刺激仍有纠正性反馈,转移刺激无反馈。
四种分类各有特点:尺寸和角度分类是单维分类,一个维度比另一个维度更具相关性;交叉分类不可线性划分,即,对比类别的成员不能通过在空间中画一条直线来分隔;对角线分类是相当“自然”的二维类别结构,可通过对角线来分离。
建立了刺激的二维空间,将它与GCM结合,用模型的两种版本预测了四种分类下的结果——完整版本(w2 = 1−w1,b2 = 1−b1)和特殊版本(w1 = w2 = 0.5或b1 = b2 = 0.5),下图3的三种模型分别对应完整版本、特殊1、特殊2,比较实际结果与完整版本/特殊版本的预测结果,可以获得支持自由参数重要性的证据。
关注%Var一栏,可以看到,完整版本的结果预测极为准确。但是注意权重相等的特殊版本(w1 = w2 = 0.5)的预测明显差于完整版本的预测,这为选择性注意假设提供了证据。
4、GCM的扩展应用
原型模型与范例模型的一个中间的观点是,可以形成多个原型来代表一个类别,其中可以将不同数量的范例平均起来形成每个单独的原型。在Vanpaemel和Storms(2008)的可变抽象模型(VAM)中,考虑了所有可能的多原型表示,并将最适合的版本作为底层类别表示,结果表明,增加复杂性是合理的。
GCM的一个重要扩展是Stewart和Brown的相似-不同范例模型。该模型假定,支持某一类别的证据并不仅仅基于某一测试项目与该类别样本的相似性,而是基于该测试项目与对比类别样本的差异性。该模型成功地利用了分类中的差异信息和分类对比效应。
另一个扩展是Kruschke的ALCOVE(注意力学习覆盖图)模型。本质上,ALCOVE采用了GCM的基于范例的代表性假设,其基于MDS的相似性假设,以及其关于选择性注意的假设。一个关键的潜在优势是,尽管选择性注意力权重是GCM中的自由参数,ALCOVE提供了一种机制,可以在逐个试验的基础上学习注意力权重。
Nosofsky和Palmeri的基于范例的随机漫步(EBRW)模型采用了与GCM相同的表征假设。然而,分类决策是由随机漫步过程控制的。另一个主要扩展是Lamberts的响应时间扩展广义上下文模型(EGCM-RT)。该扩展还采用了GCM的基于范例的代表性和相似性假设。然而,它假设分类涉及到通过信息积累过程逐步构建的知觉表征。