概率性机器学习与人工智能

原文链接:Probabilistic machine learning and artificial intelligence

该论文的目标任务是什么?

这篇综述提供了对概率框架的描述,并且讨论了在这一领域最为先进的技术,换句话说,是概率编程、贝叶斯优化、数据压缩和自动模式识别。


1. 应用场景是什么?

机器学习面临的未来的数据和将来的行为引发的结果是不确定的,概率理论提供了一个框架模型去针对这种不确定性。

主要应用有:语音识别、图像分类、文本预测等(并没有完全的使用概率模型)

作者强调的五个方面:概率编程、贝叶斯优化、概率数据压缩、从数据中发现自动获取合理的和可解释的模型可以学习更多模型的分层模型

概率数据压缩从数据压缩来看,大家都很容易理解他的含义,所有通用的无损数据压缩算法可以被是作为概率模型的序列符号。贝叶斯机器学习可以用在数据压缩上,当灵活性越高的时候,压缩的效果越好,他与现在最好的压缩算法具有同等的效力,但是它还有额外的优点就是通过对统计结构序列的学习更好的提升压缩效果,其次是他还可以用在非序列数据(例如图像、图表)的压缩上。

2. 现存的问题瓶颈?

a、概率性机器学习所完全呈现的不确定性是否重要是不确定的,人们不是很认可

b、不确定性因素太多:图像噪声及模糊性、预测模型的参数、采取何种模型(模型又分为多少层)

3. 已有最佳方法从哪些思路去解决的?


4. 该论文的解决思路?

通过贝叶斯学习解决该问题,它作为一种数学语言去表达和操纵这种不确定性,而且它的概念也非常的简单。

5. 具体方法?

实现贝叶斯学习的灵活性:

方法一:使用非参数成分去定义模型

方法二:将无参模型与有参模型进行对比分析

6. 还存在的问题?

尽管贝叶斯机器学习的方法简单,但是它面临着一系列计算和模型的挑战。在计算方面,学习涉及到从模型中排除除了我们感兴趣的所有变量。像这样高维度的求和与积分通常的计算是复杂的。对于贝叶斯学习主要的模型挑战是这样的模型应当足够的灵活去捕获所需要的所有数据参数去实现感兴趣的预测任务。

7. 该论文的解决思路能否用到其他什么任务中?

概率机器学习作为一项非常活跃的研究领域,他的影响力已经超越了卷积模式识别问题。能处理的问题包括数据压缩、优化、决策制定、科学模型挖掘、翻译和个性化模型等。

你可能感兴趣的:(论文阅读)