Something2Write

安装virtualevn中遇到的pillow问题 通过制定version可以解决Error for pip install Pillow on Ubuntu virtualenv

docker如何创建一个运行后台进程的容器并同时提供shell终端
文章中同时也提到了overstackflow上的一个解决办法damick

Docker pull下来的镜像文件、创建出来的容器文件都存在本地的什么地方了?

Docker学习总结之Run命令介绍

非常详细的 Docker 学习笔记

Docker的安装配置及使用详解

Graphite系统监控 里面有用于介绍如何选择存储精度的内容

斯坦福一个关于非监督学习和深度学习的tutorialUFLDL Tutorial.斯坦福一个关于非监督学习和深度学习的tutorialUFLDL Tutorial.

[将RDD[Vector]进行normalization]{http://stackoverflow.com/questions/36736411/how-to-normalize-or-standardize-the-data-having-multiple-columns-variables-in-sp}

粗略的讲:
1)ML是经典参数估计方法之一,估计的方法是使得似然函数最大,使用的前提是你首先需要能写出似然函数的表达式;
2)GMM严格来说是一种模型,而不是一种估计方法。这种模型针对无法写出pdf闭式表达式的情况,采用多个高斯分布 pdf的和的形式来逼进真实的pdf。而利用高斯分布的特殊性质来简化后续算法。
3)EM适用于存在不完整数据或隐藏变量的情况,首先对隐藏变量求期望,进而求似然函数的最大值。
4)MCMC是英文马尔可夫链-蒙特卡洛方法的缩写,众所周知,蒙特卡洛方法是一种基于随机模拟的计算方法。采用蒙特卡洛方法的前提是,首先需要根据相应随机变量的统计特性,产生大量样本。而马尔可夫链的作用正是产生符合所需统计特性的样本。关于马氏链具体的原理,可以参考关于随机过程书籍

GMM covariances-scikit-learn

[Python & Machine Learning] 学习笔记之scikit-learn机器学习库

漫谈 Clustering (3): Gaussian Mixture Model

Spark入门实战系列–8.Spark MLlib(上)–机器学习及SparkMLlib简介

谱聚类(spectral clustering)及其实现详解

算法杂货铺——分类算法之贝叶斯网络(Bayesian networks)

Spark中组件Mllib的学习31之朴素贝叶斯分类器(多项式朴素贝叶斯)

离线轻量级大数据平台Spark之MLib机器学习库朴素贝叶斯实例

漫谈 Clustering (3): Gaussian Mixture Model

百度指数爬虫爬取

linux下如何将一个目录下的所有文件(除.和..)都增加.bak的后缀
find . -type f -exec mv {} {}.bak \;

Spark Streaming 自适应上游 kafka topic partition 数目变化

神经网络+增强学习 一篇关于神经网络和增强学习的好文

你可能感兴趣的:(随笔)