艾宾浩斯曲线记忆法收敛性问题

  艾宾浩斯记忆曲线是德国心理学家艾宾浩斯提出来的人脑遗忘规律。利用这一研究成果,人们提出了艾宾浩斯记忆法,也就是定期复习之前学过的知识。我们以单词为例,比方说每天新学一个单词,然后后边按照艾宾浩斯记忆法在固定的时间复习这一个单词。那么问题来了,如果我们采用艾宾浩斯记忆法,随着之前学习的单词越来越多,无穷天以后会不会每天要学习和复习的单词无穷多,以至于无法操作呢?

  这个问题我没有想出非常严格的解法,但是有一个近似给出解的思路。

  为了方便解这个问题,我们提出一个概念:第i个单词在第n天被学到的概率,理所当然的,。这个(n)定义为,这个意思是如果一个单词在过了n天的时候被复习过次,那么我们认为这个单词被学到的概率为,可以看出这是一种近似。
  第n天的时候,我们已经学习过了n个单词。那么第n天需要学习的单词量是之前所有的的和,即。我们立即看出来这其实是一个无穷级数问题。如果与n的关系是调谐级数关系的话,即,那么级数就不收敛,无穷天以后我们就需要学习无穷多个单词。如果这个级数是等比级数的话,比如说,那么级数就收敛。调谐级数关系意味着,也就是。

  这里我们立即发现我们之前的假设存在一个问题。如果我们假设,那么因为,我们总是会得出,因此级数总是不能收敛的,这与我们的直觉不符。于是我们怀疑的定义方式可能有点问题。
  经过修正的定义方法如下:因为我们已知随着时间的推移,复习的频率会越来越低,所以会越来越小。所以我们采用这样一种定义方式是非常适合的:“等于前一次复习与前前一次复习的时间分之一。”这个理由解释如下,在前前一次复习完成之后到前一次复习的天之内,进行了一次复习,因此我们在这段时间的复习概率等于。
  接下来我们考虑两种典型的情况。一种是在也就是天时进行复习。那么鉴于我们的定义方式,我们总是有天的时间里复习的概率是。这些天的所有概率相加我们得到无穷大。

……………………
  好吧经过一番深思熟虑,这个问题没那么复杂,
我们不妨构建一个一维向量,其中1表示当天需要复习,0表示不需要复习。接着我们构建矩阵
\left[ \begin{matrix} &1,&1,&0,&1,&0,&0,&0,&1,&\cdots \\ &&1,&1,&0,&1,&0,&0,&0,&\cdots\\ &&&1,&1,&0,&1,&0,&0,&\cdots\\ &&&&1,&1,&0,&1,&0,&\cdots\\ &&&&&1,&1,&0,&1,&\cdots\\ &&&&&&1,&1,&0,&\cdots\\ &&&&&&&1,&1,&\cdots\\ &&&&&&&&1,&\cdots\\ \end{matrix} \right]
容易证明,想得到第n天需要复习的单词数量,就等于要得到第n列的求和。而第n列的求和其实也就是第一行第1个元素到第n个元素的求和。由于我们规定当时,,所以显然,第列的和为无穷大,也即无穷天之后需要复习无穷多个单词。

你可能感兴趣的:(艾宾浩斯曲线记忆法收敛性问题)