【心理学与AI】【目录】Blocked和Interleaved的差别

灾难性遗忘的问题,从学习形式上看也是因为把interleave改成了block而导致的记忆覆盖,所以我们搞清楚这两种学习形式到底如何影响记忆或许会对这个灾难性遗忘的问题有所启发。

综述

Carvalho, P. F., & Goldstone, R. L. (2019). When does interleaving practice improve learning?

书里的一个章节,Goldstone写的可以当综述来看。在学习过程中,注意会根据相似或者相异而聚焦。block会让注意聚焦在相似点上,interleaved会让注意聚焦在相异点上。所以block会有助于归纳学习,因为相似点都可以被找出来。interleaved会有助于分类学习,因为相异点都可以被找出来。

阅读笔记-Chen Yilin

元分析

Brunmair, M., & Richter, T. (2019). Similarity matters: A meta-analysis of interleaved learning and its moderators. Psychological bulletin, 145(11), 1029.

元分析,重点在总结哪些因素会影响interleave over block的优势。我觉得优点在于它总结的现象比较全面,缺点是没有对机制进行深入的探讨。这篇的笔记重点总结分析结论就好了,即哪些因素有影响,哪些影响较弱,哪些没有影响之类的。不用纠结每个统计指标。

阅读笔记-Wu Chengjie/Wang Ruyue

单篇

看单篇的同学要重点关注实验范式和讨论,尤其是他们怎么解释interleave和block在机制上的差异,并且继续搜索一下后续的文献,别人对这个机制是怎么评价的?补充到笔记里。

Yan, V. X., Soderstrom, N. C., Seneviratna, G. S., Bjork, E. L., & Bjork, R. A. (2017). How should exemplars be sequenced in inductive learning? Empirical evidence versus learners’ opinions. Journal of Experimental Psychology: Applied, 23(4), 403.

前人认为blocked可以让人更好地学习类内的共性,而interleaved能更好地学习类间的差异。这篇文章探究了如果把这两种形式混合会怎么样。结果发现,mini- blocks , blocked-to-interleaved和纯interleaved差不多,blocked还是最差的。
文章还调查了被试自己的学习形式偏好,发现interleaved是最差的。即被试在实际学习效果差不多甚至更差的情况下,倾向于选择blocked的学习形式。

阅读笔记-Yan Chenyu

Birnbaum, M. S., Kornell, N., Bjork, E. L., & Bjork, R. A. (2013). Why interleaving enhances inductive learning: The roles of discrimination and retrieval. Memory & cognition, 41(3), 392-402.

之前许多研究也支持集中学习有利于归纳,而间隔学习会造成阻碍。其原因可能在于:元认知的判断通常基于流畅感觉,连续显示类似项目会给人流畅的印象,而间隔会降低流畅性。

交错和间隔的交互作用

当连续展示时,交错条件表现优于区组条件;当间隔展示时二者没有显著差异,支持判别对比假说(交错不同类别的范例会突出类别之间的差异,增强基于这些范例的概念的归纳学习)。
他们认为交错的本质是混合了不同类别的样本而增强学习,即差异是交错优势的驱动力,而不是时间间隔本身的作用。
阅读笔记-Zhang Yu

Carvalho, P. F., & Goldstone, R. L. (2014). Putting category learning in order: Category structure and temporal arrangement affect the benefit of interleaved over blocked study. Memory & cognition, 42(3), 481-495.

类别的特点如何影响block or interleaved的调节作用。这个Goldstone也是这个领域的大佬。

阅读笔记-Lin Beibei

Carvalho, P. F., & Goldstone, R. L. (2015). The benefits of interleaved and blocked study: Different tasks benefit from different schedules of study. Psychonomic bulletin & review, 22(1), 281-288.

不同的任务类型如何影响。
阅读笔记-Ye Yizhou

Noh, S. M., Yan, V. X., Bjork, R. A., & Maddox, W. T. (2016). Optimal sequencing during category learning: Testing a dual-learning systems perspective. Cognition, 155, 23-29.

这篇认为block设计和interleaving设计会分别增强两个不同的学习系统的学习:block设计应该增强rule-based category learning,interleaving应该增强 information-integration category learning。前一个是基于外显的假设检验学习;后一个是基于内隐的,procedural-based learning。


双系统和学习形式的交互作用

实验刺激

阅读笔记-Zhu Bihan

Carvalho, P. F., & Goldstone, R. L. (2017). The sequence of study changes what information is attended to, encoded, and remembered during category learning. Journal of Experimental Psychology: Learning, Memory, and Cognition, 43(11), 1699.

这个是goldstone提出的SAT理论,用来解释为什么不同的procedure会造成不同的效果。
SAT理论(Carvalho& Goldstone, 2015b)认为AI分类学习中,学习者会把当前项目和之前的项目比较。如果属于同一类,注意会偏向类内相似性;如果属于不同类,注意会偏向类间差异性。
每个给定特征都有线索有效性(cue validity)和类别有效性(category validity)两个指标。

cue validity:P(“X is in Category A” | “X has feature F”) =在A类中有F特征的/ 所有类中含有F特征的
category validity :P(“X has feature F” | “X is in Category A”) = 在A类中含有F特征的/ A类中所有项

e.g. “barks”是dog类别里有高线索有效性和高类别有效性的,因为狗大多会叫,叫的大多是狗。

假设:交叉顺序更有可能对高线索有效性编码;分组顺序更有可能对类别有效性编码。
实验一:新项目与学习过的项目的泛化任务;特征预测任务
实验二:不同记忆间隔下对每周特征类型的记忆
实验三:运用眼动研究学习者最关注的特征

阅读笔记-Tang Wenwen

Nosofsky, R. M., Sanders, C. A., & McDaniel, M. A. (2018). Tests of an exemplar-memory model of classification learning in a high-dimensional natural-science category domain. Journal of Experimental Psychology: General, 147(3), 328–353

这个是2018年的一篇JEPG,讲的是分类学习的模型,混合了exemplar-memory model和feature-space representation。25p

阅读笔记-Wang Zhiyi

AI算法相关

Pérez-Sánchez, B., Fontenla-Romero, O., & Guijarro-Berdiñas, B. (2018). A review of adaptive online learning for artificial neural networks. Artificial Intelligence Review, 49(2), 281-299.

在线学习需要根据用户数据不断调整网络,他们是怎么做的。

Li, M., Zhang, T., Chen, Y., & Smola, A. J. (2014, August). Efficient mini-batch training for stochastic optimization. In Proceedings of the 20th ACM SIGKDD international conference on Knowledge discovery and data mining (pp. 661-670).

Mini-batch stochastic learning是训练神经网络的一种方法优化,也就是现在主流的方法,即每一次训练在训练集里随机抽取一些数据来训练,就是和大家之前看的interleave是对应的。这是提出这个方法的文章(大佬+巨佬的文章),重点看作者认为这个方法为什么有用。可能需要看一些数学的东西,笔记尽可能突出核心思想,可以借助其他网络资料。

你可能感兴趣的:(【心理学与AI】【目录】Blocked和Interleaved的差别)