人工智能的开源框架

【嵌牛导读】:由于最近在看语音识别的相关内容,看到几个很不错的人工智能深度学习的开源库,分享给大家,我相信只有选择好合适的工具,才能在开发的过程中事半功倍。

【嵌牛鼻子】:人工智能,开源框架,深度学习

一.TensorFlow

TensorFlow是一款开源的数学计算软件,使用数据流图(Data Flow Graph)的形式进行计算。图中的节点代表数学运算,而图中的线条表示多维数据数组(tensor)之间的交互。TensorFlow灵活的架构可以部署在一个或多个CPU、GPU的台式以及服务器中,或者使用单一的API应用在移动设备中。TensorFlow最初是由研究人员和Google Brain团队针对机器学习和深度神经网络进行研究所开发的,目前开源之后可以在几乎各种领域适用。

TensorFlow的特点:

机动性: TensorFlow并不只是一个规则的neural network库,事实上如果你可以将你的计算表示成data flow graph的形式,就可以使用TensorFlow。用户构建graph,写内层循环代码驱动计算,TensorFlow可以帮助装配子图。定义新的操作只需要写一个Python函数,如果缺少底层的数据操作,需要写一些C++代码定义操作。

可适性强: 可以应用在不同设备上,cpus,gpu,移动设备,云平台等

自动差分: TensorFlow的自动差分能力对很多基于Graph的机器学习算法有益

多种编程语言可选: TensorFlow很容易使用,有python接口和C++接口。其他语言可以使用SWIG工具使用接口。(SWIG—Simplified Wrapper and Interface Generator, 是一个非常优秀的开源工具,支持将 C/C++ 代码与任何主流脚本语言相集成。)

最优化表现:  充分利用硬件资源,TensorFlow可以将graph的不同计算单元分配到不同设备执行,使用TensorFlow处理副本。

二.Torch

Torch是一个有大量机器学习算法支持的科学计算框架,其诞生已经有十年之久,但是真正起势得益于Facebook开源了大量Torch的深度学习模块和扩展。Torch另外一个特殊之处是采用了编程语言Lua(该语言曾被用来开发视频游戏)。

Torch的优势:

1、构建模型简单

2、高度模块化

3、快速高效的GPU支持

4、通过LuaJIT接入C

5、数值优化程序等

6、可嵌入到iOS、Android和FPGA后端的接口

三.Caffe

Caffe由加州大学伯克利的PHD贾扬清开发,全称Convolutional Architecture for Fast Feature Embedding,是一个清晰而高效的开源深度学习框架,目前由伯克利视觉学中心(Berkeley Vision and Learning Center,BVLC)进行维护。(贾扬清曾就职于MSRA、NEC、Google Brain,他也是TensorFlow的作者之一,目前任职于Facebook FAIR实验室。)

Caffe基本流程:Caffe遵循了神经网络的一个简单假设——所有的计算都是以layer的形式表示的,layer做的事情就是获得一些数据,然后输出一些计算以后的结果。比如说卷积——就是输入一个图像,然后和这一层的参数(filter)做卷积,然后输出卷积的结果。每一个层级(layer)需要做两个计算:前向forward是从输入计算输出,然后反向backward是从上面给的gradient来计算相对于输入的gradient,只要这两个函数实现了以后,我们就可以把很多层连接成一个网络,这个网络做的事情就是输入我们的数据(图像或者语音等),然后来计算我们需要的输出(比如说识别的标签),在训练的时候,我们可以根据已有的标签来计算损失和gradient,然后用gradient来更新网络的参数。

Caffe的优势:

1、上手快:模型与相应优化都是以文本形式而非代码形式给出

2、速度快:能够运行最棒的模型与海量的数据

3、模块化:方便扩展到新的任务和设置上

4、开放性:公开的代码和参考模型用于再现

5、社区好:可以通过BSD-2参与开发与讨论

四.Theano

2008年诞生于蒙特利尔理工学院,Theano派生出了大量深度学习Python软件包,最著名的包括Blocks和Keras。Theano的核心是一个数学表达式的编译器,它知道如何获取你的结构。并使之成为一个使用numpy、高效本地库的高效代码,如BLAS和本地代码(C++)在CPU或GPU上尽可能快地运行。它是为深度学习中处理大型神经网络算法所需的计算而专门设计的,是这类库的首创之一(发展始于2007年),被认为是深度学习研究和开发的行业标准。

Theano的优势:

1、集成NumPy-使用numpy.ndarray

2、使用GPU加速计算-比CPU快140倍(只针对32位float类型)

3、有效的符号微分-计算一元或多元函数的导数

4、速度和稳定性优化-比如能计算很小的x的函数log(1+x)的值

5、动态地生成C代码-更快地进行计算

6、广泛地单元测试和自我验证-检测和诊断多种错误

7、灵活性好

你可能感兴趣的:(人工智能的开源框架)