MindSpore社区群组介绍系列之二——SIG-DPP

MindSpore社区将持续优化各项功能提供最佳操作体验,今天向大家介绍旨在“无缝”融合深度学习模型和概率学习模型——MindSpore深度概率编程(MDP),相信在日常工作中有了MDP的协助,能更加高效的完成各项任务,接下来让我们来一起了解MDP是什么吧~

相比于传统的深度神经网络模型,深度概率模型(Deep Probabilistic Programming Model )具有更好的鲁棒性和可解释性。但是深度概率模型需要用户理解概率模型的建模思维和编程方法,因此对于传统深度学习开发者而言有较高门槛。

MindSpore深度概率编程库与清华大学的ZhuSuan相结合,提供与深度学习无缝融合的高效贝叶斯学习编程库,可以帮助开发者们更好的理解和学习。

MindSpore社区群组介绍系列之二——SIG-DPP_第1张图片

MindSpore深度概率编程(MDP)旨在“无缝”融合深度学习模型和概率学习模型,满足不同用户的需求:

  • 对于深度学习的用户

    MDP支持深度神经网络一键转贝叶斯神经网络,方便上手,并提供不确定性估计等面向具体应用场景的工具箱;

  • 对于专业的概率学习用户

    MDP提供通用、模块化的高性能贝叶斯建模和推断方法库,包括概率采样库、贝叶斯神经网络,概率推断算法等,帮助用户更加快速、简洁地进行概率编程。

  • 增加BNN layers的实现方法,包括Local Reparameteration、Flipout等典型方法;

  • 丰富面向具体应用场景的工具箱,提供OoD(Out of Distribution)检测等功能;

  • 增加马尔可夫链蒙特卡洛(MCMC)方法,用于支持数据生成和推理等模型功能;

  • 增加贝叶斯上下文管理,用于支持构建复杂的贝叶斯模型。

参加社区开发非常简单:

1. 请先查看SIG-DPP的立项文档:

https://gitee.com/mindspore/mindspore/issues/I1RG6C

2. 查看MDP代码:

https://gitee.com/mindspore/mindspore/tree/r0.7/mindspore/nn/probability

你可能感兴趣的:(新闻,算法,神经网络,学习,设计模式)