读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》

Training Products of Experts by Minimizing Contrastive Divergence(以下简称 PoE)是 DBN 和深度学习理论的 肇始之篇,最近在爬梳和学习 RBM 的相关知识时,发 现训练 RBM 时使用的对比散度算法在各种中英文资料 中都不甚详解,有些只是一带而过,不明就里,为什么 使用对比散度算法能够近似原来的目标函数,为什么一 步迭代就能得到较好的收敛结果?诸如此类的问题,一 直困扰于心。所以最终还是把这篇开山之作翻了出来, 仔细阅读后,发现很多关于算法的基本思路和出发点, Hinton 已经提及,只是我们没有太多在意,这里便是把 这篇论文重新阅读后的笔记整理出来,以供再来者借鉴。

读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》_第1张图片

读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》_第2张图片

读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》_第3张图片

读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》_第4张图片

读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》_第5张图片

读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》_第6张图片

读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》_第7张图片

读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》_第8张图片

读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》_第9张图片

读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》_第10张图片

你可能感兴趣的:(读书笔记)