Python用PyMC贝叶斯GLM广义线性模型、NUTS采样器拟合、后验分布可视化

全文链接:https://tecdat.cn/?p=33436

原文出处:拓端数据部落公众号

尽管贝叶斯方法相对于频率主义方法的理论优势已经在其他地方进行了详细讨论,但其更广泛采用的主要障碍是“可用性”。而使用贝叶斯方法,客户可以按照自己认为合适的方式定义模型。

线性回归[](https://www.pymc.io/projects/docs/en/v5.7.2/learn/core_notebo... "Permalink to this heading")

在此示例中,我们将帮助客户从最简单的 GLM – 线性回归开始。 一般来说,频率论者对线性回归的看法如下:

image.png

然后,我们可以使用普通最小二乘法(OLS)或最大似然法来找到最佳拟合。

概率重构[](https://www.pymc.io/projects/docs/en/v5.7.2/learn/core_notebo... "Permalink to this heading")

贝叶斯主义者对世界采取概率观,并用概率分布来表达这个模型。我们上面的线性回归可以重新表述为:

image.png

换句话说,我们将Y其视为一个随机变量(或随机向量),其中每个元素(数据点)都根据正态分布分布。此正态分布的均值由具有方差sigma的线性预测变量提供。

PyMC 中的贝叶斯 GLM

要开始在 PyMC 中构建 GLM,让我们首先导入所需的模块。



print(f"Running on PyMC v{pm.__version__}")

image.png


az.style.use("arviz-darkgrid")

数据[](https://www.pymc.io/projects/docs/en/v5.7.2/learn/core_notebo... "Permalink to this heading")

本质上,我们正在创建一条由截距和斜率定义的回归线,并通过从均值设置为回归线的正态采样来添加数据点。


y = true_regression_line + rng.normal(scale=0.5, size=size)

data = pd.DataFrame(dict(x=x, y=y))

plt.legend(loc=0);

Python用PyMC贝叶斯GLM广义线性模型、NUTS采样器拟合、后验分布可视化_第1张图片

估计模型[](https://www.pymc.io/projects/docs/en/v5.7.2/learn/core_notebo... "Permalink to this heading")

让我们将贝叶斯线性回归模型拟合到此数据。


    # 定义似然函数
    likelihood = Normal("y", mu=intercept + slope * x, sigma=sigma, observed=y)

    # 使用NUTS采样推断
    idata = sample(3000)

Python用PyMC贝叶斯GLM广义线性模型、NUTS采样器拟合、后验分布可视化_第2张图片

Python用PyMC贝叶斯GLM广义线性模型、NUTS采样器拟合、后验分布可视化_第3张图片

对于了解概率编程的人来说,这应该是相当可读的。


    import bambi as bmb

image.png

image.png

idata = model.fit(draws=3000)

Python用PyMC贝叶斯GLM广义线性模型、NUTS采样器拟合、后验分布可视化_第4张图片

要短得多,但这段代码与之前的规范完全相同(如果我们愿意,您也可以更改先验和其他所有内容)。

分析模型[](https://www.pymc.io/projects/docs/en/v5.7.2/learn/core_notebo... "Permalink to this heading")

贝叶斯推理不仅给了我们一条最佳拟合线(就像最大似然那样),而是给出了合理参数的整个后验分布。让我们绘制参数的后验分布和我们绘制的单个样本。

az.plot_trace(idata, figsize=(10, 7));

Python用PyMC贝叶斯GLM广义线性模型、NUTS采样器拟合、后验分布可视化_第5张图片

左侧显示了我们的边缘后验 – 对于 x 轴上的每个参数值,我们在 y 轴上得到一个概率,告诉我们该参数值的可能性。

首先,各个参数(左侧)的采样链看起来均匀且平稳(没有大的漂移或其他奇怪的模式)。

其次,每个变量的最大后验估计值(左侧分布中的峰值)非常接近用于生成数据的真实参数(x是回归系数,sigma是我们正态的标准差)。

因此,在 GLM 中,我们不仅有一条最佳拟合回归线,而且有许多。后验预测图从后验图(截距和斜率)中获取多个样本,并为每个样本绘制一条回归线。我们可以直接使用后验样本手动生成这些回归线。

idata.posterior["y_model"] = idata.posterior["Intercept"] + idata.posterior["x"] * xr.DataArray(x)
_, ax = plt.subplots(figsize=(7, 7))
az.plot_lm(idata=idata, y="y", num_samples=100, axes=ax, y_model="y_model")
ax.set_title("Posterior predictive regression lines")
ax.set_xlabel("x");

image.png

Python用PyMC贝叶斯GLM广义线性模型、NUTS采样器拟合、后验分布可视化_第6张图片

我们估计的回归线与真正的回归线非常相似。但是由于我们只有有限的数据,我们的估计存在不确定性,这里用线的可变性来表示。

总结[](https://www.pymc.io/projects/docs/en/v5.7.2/learn/core_notebo... "Permalink to this heading")

  • 可用性目前是更广泛采用贝叶斯统计的巨大障碍。
  • Bambi允许使用从 R 借用的便捷语法进行 GLM 规范。然后可以使用pymc 进行推理。
  • 后验预测图使我们能够评估拟合度和其中的不确定性。

延伸阅读[](https://www.pymc.io/projects/docs/en/v5.7.2/learn/core_notebo... "Permalink to this heading")

有关其他背景信息,以下是一些关于贝叶斯统计的好资源:

版本信息:

%load_ext watermark

%watermark -n -u -v -iv -w -p pytensor

Python implementation: CPython
Python version       : 3.11.4
IPython version      : 8.14.0

pytensor: 2.14.2

pymc      : 5.7.2+0.gd59a960f.dirty
bambi     : 0.12.0
arviz     : 0.16.1
xarray    : 2023.7.0
matplotlib: 3.7.2
numpy     : 1.25.2
sys       : 3.11.4 | packaged by conda-forge | (main, Jun 10 2023, 18:08:17) [GCC 12.2.0]
pandas    : 2.0.3

Watermark: 2.4.3

Python用PyMC贝叶斯GLM广义线性模型、NUTS采样器拟合、后验分布可视化_第7张图片

最受欢迎的见解

1.matlab使用贝叶斯优化的深度学习

2.matlab贝叶斯隐马尔可夫hmm模型实现

3.R语言Gibbs抽样的贝叶斯简单线性回归仿真

4.R语言中的block Gibbs吉布斯采样贝叶斯多元线性回归

5.R语言中的Stan概率编程MCMC采样的贝叶斯模型

6.R语言贝叶斯Poisson泊松-正态分布模型分析职业足球比赛进球数

7.R语言使用贝叶斯 层次模型进行空间数据分析

8.R语言随机搜索变量选择SSVS估计贝叶斯向量自回归(BVAR)模型

9.matlab贝叶斯隐马尔可夫hmm模型实现

你可能感兴趣的:(数据挖掘深度学习人工智能)