学习之乐土

总结一下,自己感觉比较好的学习资源

优秀博客

  • 刘建平Pinard
    机器学习 | 深度学习 | 自然语言处理
  • 莫凡
    个人主页 | YouTube
  • colah (一位 google resharch)
    深度学习
  • TensorFlow 实现 RNN,原理到代码,非常详细
    RNN
  • 一个学生写的深度学习博客

TensorFlow

  • TensorFlow Example 对于入门者非常有帮助
  • 我的 TensorFlow 学习之路

机器学习

  • 李宏毅 官方课程
  • 李宏毅机器学习(2017) bilibili
  • 李宏毅机器学习 YouTube
  • 李宏毅机器学习 课件
  • 机器学习实战 实例讲解
  • 损失函数
  • 分类算法
    感知机
    逻辑回归 ~ 朴素贝叶斯 ~ 贝叶斯网络 ~ 决策树 ~ 决策树
    支持向量机系列 (相当好)
    支持向量机通俗导论(理解SVM的三层境界)
  • 聚类算法
    K均值聚类

  • 集成学习 (Ensemble Learning)
    bagging -> 随机森林(random forest) (个体分类器都是 强 model)
    boosting -> Adaboost (个体分类器都是 弱 model)
    参考资料

深度学习

  • 李宏毅 官方课程
  • 李宏毅深度学习(2017) bilibili
  • Neural Networks and Deep Learning 介绍神经网络背后得秘密,有时间一定要看看
  • deeplearningbook
  • RNN
    • The Unreasonable Effectiveness of Recurrent Neural Networks
    • Understanding LSTM Networks
  • CNN
    • 94页论文综述卷积神经网络:从基础技术到研究前景

自然语言处理

  • 深度学习与 NLP - 论文笔记与TensorFlow实现

word2vec

  • Word2Vec tutorial
  • 秒懂词向量Word2vec的本质
  • 深度学习word2vec笔记之基础篇
  • 深度学习word2vec笔记之算法篇
  • word2vec数学原理总结
  • Deep learning 实战之 word2vec
  • CBOW Skip-gram 两个模型
    word2vec给出了两套框架,分别基于 Hierarchical Softmax 和 Negative Sampling 进行设计
    • Hierarchical Softmax 输出为 huffman 树
    • Negative Sampling 目的是用来提高训练速度并改善所得词向量的质量,与 Hierarchical Softmax 相比,NEG 不再使用复杂的 huffman 树,而是利用(相对简单的)随机负采样,能大幅度提高性能,因而可作为 Hierarchical Softmax 的一种代替。
  • word2vec词向量学习笔记

GloVe 训练词向量的模型

  • GloVe: Global Vectors for Word Representation
  • GloVe模型

小结

  • GitHub
  • tensorflow 常见 api
  • numpy 常见 api
  • 注意点
  • 斯坦福大学公开课

学习天地

  • LeetCode
  • Linux基础入门
  • Vim编辑器

你可能感兴趣的:(学习之乐土)