文末福利|一文上手TensorFlow2.0(一)

文末福利|一文上手TensorFlow2.0(一)_第1张图片

编辑 | 安可

出品 | 磐创AI技术团队


目录:
  • Tensorflow2.0 介绍
    • Tensorflow 常见基本概念
    • 从1.x 到2.0 的变化
    • Tensorflow2.0 的架构
  • Tensorflow2.0 的安装(CPU和GPU)
  • Tensorflow2.0 的使用

  • 使用 GPU 加速 
  从现在开始我们就正式进入TensorFlow2.0的学习了,在这一系列文章里我们将重点介绍TensorFlow的基础知识和使用方法,为后面我们使用TensorFlow去解决一些实际的问题做好准备。 2019年3月的TensorFlow开发者峰会上,TensorFlow2.0 Alpha版正式发布,2.0版相比之前的1.x(1.x泛指从1.0到1.13的各个TensorFlow版本)版做了很大的改进,在确保灵活性和性能的前提下易用性得到了很大的提升,对于初次接触TensorFlow的读者来说,建议直接从2.0版开始使用。

1. TensorFlow2.0 介绍

Google在2011年启动了谷歌大脑(GoogleBrain)项目,该项目旨在探索超大规模的深度神经网络,一方面用于研究,另一方面也是希望可以在Google的各类产品中使用,DistBelief分布式机器学习框架便是该项目的一部分。DistBelief曾在Google内部得到了广泛的使用,有超过50个Google(包括其子公司)的团队在他们的产品中使用DistBelief部署了深度神经网络,包括Google搜索,Google广告,Google地图,Google的语音识别系统以及YouTube等。
TensorFlow是Google在DistBelief的经验和基础上开发的第二代大规模分布式机器学习系统,可能是希望打造一个行业标准,以及借助社区的力量来完善TensorFlow等目的,Google于2015年11将TensorFlow开源在了GitHub上。从TensorFlow1.0正式版发布(2017年2月)到现在TensorFlow2.0的Alpha版发布(2019年3月)过去了整整2年,TensorFlow已经成为了各类深度学习框架中的主力军。

TensorFlow使用数据流模型来描述计算过程,并将它们映射到了各种不同的硬件平台上,包括Linux、Max OS X、Windows、Android和iOS等,从x86架构到ARM架构,从拥有单个或多个CPU的服务器到大规模GPU集群。凭借着统一的架构,TensorFlow可以跨越多种平台进行部署,显著地降低了机器学习系统的应用部署难度。
TensorFlow2.0采用了更加简单化的新框架,在保证性能和灵活性的前提下易用性得到了很大程度的提升。

1.1 TensorFlow常见基本概念

在这一小节里我们只对TensorFlow中的一些基本概念做一个简单的介绍,希望进一步了解这些概念及其实现的读者,可以参考官方的白皮书(主要是15年的)以及TensorFlow官网的一些文档。需要注意的是,这些资料中的部分内容对于TensorFlow2.0来说已经不适用了,读者在阅读的时候需要留意。
1. 计算图 计算图(computation graph)是一个有向图(directed graph),是对TensorFlow中计算任务的抽象描述,也称为数据流图(data flow graph)。TensorFlow使用计算图将计算表示成了独立的指令之间的依赖关系,在计算图中,节点表示计算单元(即一个独立的运算操作),图中的边表示计算使用或产生的数据。在TensorFlow1.x版本中,当我们使用TensorFlow低级API进行编程时,我们首先需要定义好计算图,然后创建TensorFlow会话(session)来执行计算图。
在TensorFlow1.x版本中采用的是静态图机制,我们需要预先定义好计算图,然后再可以反复的调用它(1.x版本有提供Eager Execution接口,让用户可以使用动态图)。TensorFlow2.0则采用了动态图机制(1.x版本的Eager Execution在2.0中成为了默认的执行方式),我们可以像执行普通的python程序一样执行TensorFlow的代码,而不再需要自己预先定义好静态图,调试代码也更加容易。TensorFlow1.x的静态图机制一直被用户所诟病,调整为动态图机制是TensorFlow2.0一个最重大的改进,并且其也提供了一些方法来保留静态计算图的一些优势。
2. 会话 在1.x版本中,会话(session)是客户端程序与TensorFlow系统进行交互的接口,我们定义好的计算图必须在会话中执行。当会话被创建时会初始化一个空的图,客户端程序可以通过会话提供的“Extend”方法向这个图中添加新的节点来创建计算图,并通过“tf.Session”类提供的“run”方法来执行计算图。大多数情况下我们只需要创建一次会话和计算图,之后我们可以在会话中反复执行整个计算图或者其中的某些子图。 TensorFlow2.0采用了动态图机制,我们不需要在会话中执行计算图了,“tf.Session”类被放到了兼容模块“tensorflow.compat.v1”中,这个模块里有完整的TensorFlow1.x的API。为了保留静态图的优势(例如性能优化和可移植性等),TensorFlow2.0提供了“tf.function”方法,使用“tf.function”修饰的python函数,TensorFlow可以将其作为单个图来运行。
3. 运算操作和运算核 计算图中的每一个节点就是一个运算操作(operation,通常简称op),每一个运算操作都有名称,并且代表了一种类型的抽象运算,例如“MatMul”代表矩阵的乘法。每个运算操作都可以有自己的属性,但是所有的属性都必须被预先设置,或者能够在创建计算图时根据上下文推断出来。通过设置运算操作的属性可以让运算操作支持不同的张量(tensor)元素类型,例如让向量加法操作运算只接受浮点类型的张量。运算核(kernel)是一个运算操作在某个具体的硬件(比如CPU或GPU)上的实现,在TensorFlow中可以通过注册机制加入新的运算操作或者为已有的运算操作添加新的运算核。
表2-1所示是TensorFlow中一些内建运算操作。
文末福利|一文上手TensorFlow2.0(一)_第2张图片 表2-1 TensorFlow的部分运算操作 4. 张量 张量(tensor)可以看作是一个多维的数组或列表,它是对矢量和矩阵的更高维度的泛化,张量由“tf.Tensor”类定义。计算图中的一个运算操作可以获得零个或多个张量作为输入,运算后会产生零个或多个张量输出。这些张量在计算图的边中流动(flow),从一个节点(运算操作)到另一个节点,TensorFlow也因此而得名。
    张量具有以下两个属性:
  • 数据类型(同一个张量中的每个元素都具有相同的数据类型,例如float32、int32以及string)

  • 形状(即张量的维数以及每个维度的大小)


表2-2所示是张量的形状示例。

文末福利|一文上手TensorFlow2.0(一)_第3张图片 表2-2 TensorFlow中张量的形状示例 TensorFlow中有一些特殊的张量,以下是一些主要的特殊张量:
  • tf.Variable(变量,TensorFlow中的张量一般都不会被持久化保存,参与一次运算操作后就会被丢弃了。变量(variable)是一种特殊的运算操作,它可以将一些需要持久化保存的张量存储在内存或显存中,并会返回一个可以对该变量所引用的张量进行一系列特定操作的句柄,例如Assign和AssignAdd(等同于“+=”)等。模型的参数是保存在变量中的,在模型的训练过程中,参数在不断地更新。变量的值可以修改,但是维度不可以变。)

  • tf.constant(常量,常量定义时必须初始化值,且定义后其值和维度不可再改变。)

  • tf.placeholder(占位符,在执行“session.run()”方法时传入具体的值,TensorFlow2.0中不再使用,但依然可以在“tensorflow.compat.v1”模块中找到。)

  • tf.SparseTensor(稀疏张量)


1.2 从1.x到2.0的变化

TensorFlow 2.0在1.x的基础上做了重新设计,重点放在了提升开发人员的工作效率上,确保2.0版本更加的简单易用。TensorFlow 2.0为了提升易用性做了很多改进,例如对API做了精简,删除了冗余的API,使得API更加一致(例如统一了TensorFlow和tf.keras的循环神经网络和优化器等),以及由静态计算图转变为了动态计算图等(这使得代码的编写和调试变得更加容易)。接下来我们看看TensorFlow 2.0的一些主要变化。
1. API精简 很多TensorFlow 1.x的API在2.0中被去掉或者改变了位置,还有一些则被新的API给替换掉了。官方提供了一个转换工具,可以用来将1.x版本的代码升级到2.0,其主要的工作其实就是修改这些有变更的API。不过使用该工具不一定能够转换成功,转换成功后的代码也并不一定能够正常运行,很多时候还是需要人工修改。
2. Eager execution Eagerexecution(动态图机制)是TensorFlow 从1.8版本开始正式加入的,但只是作为一种可选操作,在TensorFlow 2.0之前,TensorFlow默认的模式都是Graph execution(静态图机制),TensorFlow 2.0将Eager execution做为了默认模式。在该模式下用户能够更轻松的编写和调试代码,可以使用原生的Python控制语句,大大降低了学习和使用TensorFlow的门槛。在TensorFlow 2.0中,图(graph)和会话(session)都变成了底层实现,而不需要用户关心了。
3. 取消全局变量 TensorFlow 1.x非常依赖隐式全局命名空间。当我们调用“tf.Variable”创建变量时,该变量就会被放进默认的图中,即使我们忘记了指向它的python变量,它也会留在那里。当我们想恢复这些变量时,我们必须知道该变量的名称,如果我们没法控制这些变量的创建,也就无法做到这点。TensorFlow 1.x中有各种机制旨在帮助用户再次找到他们所创建的变量,而在2.0中则取消了所有这些机制,支持默认的机制:跟踪变量。当我们不再用到创建的某个变量时,该变量就会被自动回收。
4. 使用函数而不是会话 在TensorFlow 1.x中,我们使用“session.run()”方法执行计算图,“session.run()”方法的调用类似于函数调用:指定输入数据和调用的方法,最后返回输出结果。为了保留静态图的一些优势,例如性能优化以及重用模块化的TensorFlow函数等,在TensorFlow2.0中,我们可以使用“tf.function()”来修饰python函数以将其标记为即时(Just-In-Time)编译,从而TensorFlow可以将其作为单个图来执行。

1.3 TensorFlow2.0的架构

Tensorflow作为全球最受欢迎、使用最为广泛的机器学习平台之一,在其发展的三年时间里,也是机器学习和人工智能发展最为迅猛的三年。TensorFlow2.0是一个重要的里程碑,其重心放在了简单性和易用性上,尽量降低用户使用的门槛。在TensorFlow成长的这几年里,TensorFlow团队为其添加了许多的组件,在TensorFlow2.0里,这些组件被打包成了一个全面的平台,它支持从训练到部署的标准化的机器学习流程。如图2-1所示是TensorFlow2.0架构的简化概念图。

文末福利|一文上手TensorFlow2.0(一)_第4张图片 图2-1 TensorFlow2.0架构的简化概念图 接下来我们结合图2-1介绍一下TensorFlow2.0的基本工作流程以及对应可以使用的API,在2.3节里我们会根据TensorFlow的官方文档重点介绍一下“tf.data”和“tf.keras”这两个API,让读者快速入门TensorFlow2.0的使用。其它的API,读者可以结合官方的文档在本书后续的项目实战中慢慢熟悉和掌握。

1. 使用tf.data加载数据 我们使用tf.data创建的输入管道来读取训练数据,并可以通过tf.feature_column来指定特征列或者交叉特征。
2. 使用tf.keras或PremadeEstimators构建、训练和验证模型 tf.keras作为TensorFlow的核心高级API,其已经和TensorFlow的其余部分紧密集成,使用tf.keras可以简单、快捷的构建我们的模型。另外tf.estimator中打包了一些标准的模型供我们直接使用,例如逻辑回归、提升树以及随机森林等。当我们不想从头开始训练一个模型时(例如这个模型的训练可能非常耗时),我们可以使用TensorFlow Hub模块来进行迁移学习。
3. 使用eager execution运行和调试模型,以及使用tf.function充分利用计算图的优势 前面已经介绍过,在eager execution模式下,我们可以更加方便的编写和调试代码,在TensorFlow2.0中该模式是默认开启的。我们可以使用tf.function来将python程序转换为TensorFlow的静态计算图,这样就可以保留TensorFlow1.x版本中的静态计算图的一些优势。
4. 使用Distribution Strategies进行分布式训练 对于大规模的机器学习训练任务,tf.distribute.StrategyAPI旨在让用户只需要对现有的模型和代码做最少的更改,就可以实现分布式的训练。TensorFlow支持CPU、GPU以及TPU等硬件加速器,我们可以将训练任务分配到单节点/多加速器以及多节点/多加速器。
5. 使用SavedModel存储模型 在TensorFlow中有两种模型存储的格式,一个是检查点(checkpoints),另一个是SavedModel,前者依赖于创建模型的源代码,而后者则与创建模型的源代码无关,因此标准化后的SavedModel可以作为TensorFlow Serving、TensorFlow Lite、TensorFlow.js或者其它编程语言的交换格式。
640?wx_fmt=png

留言送书福利

640 640
为了鼓励大家踊跃在文章 留言区 分享自己的看法,磐创AI推出了“留言送书活动~在本文文末 留言 即可参与活动,留言内 可以 学习的故 事、对本公众号的看法或建议,亦或是对人工智能的看法等。欢迎大家在日常推文中留言,以后将不定期推出“留言送书活动。
这次磐小仙精心挑选了本《神经网络与深度学习实战》送给大家。书籍详细介绍可以点击 文末阅读原文看。


《神经网络与深度学习实战:Python+Keras+TensorFlow》共15章,涵盖的内容有神经网络初体验;深度学习的微积分基础;深度学习的线性代数基础;神经网络的理论基础;用Python从零实现识别手写数字的神经网络;神经网络项目实践;使用神经网络实现机器视觉识别;用深度学习实现自然语言处理;自动编解码网络和生成型对抗性网络;增强性学习网络的开发实践;TensorFlow入门;使用TensorFlow和Keras开发高级自然语言处理系统;使用TensorFlow和Keras实现高级图像识别处理系统;使用TensorFlow和Keras打造智能推荐系统;深度学习重要概念和技巧总结。


文末福利|一文上手TensorFlow2.0(一)_第5张图片

本次“留言送书活动将在 8月17号中午十二点 前抽一位 留言最走心的粉丝  免费赠送这本书籍。(注:会先对评论做一下筛选,用心评论即可上墙)。届时小仙会公布中奖者留言截图及领取福利的方式~ 640 


你也许还想 ●  常用的聚类算法及聚类算法评价指标 ●  七大Github机器学习热门项目 ●  机器学习在生活中的九大有趣应用


欢迎扫码关注:


文末福利|一文上手TensorFlow2.0(一)_第6张图片


640?wx_fmt=gif 点击下方  |  |  了解更多

你可能感兴趣的:(文末福利|一文上手TensorFlow2.0(一))