深度学习实战篇之 ( 五) -- TensorFlow学习之路(二)

科普知识

《自然哲学的数学原理》是英国物理学家艾萨克·牛顿创作的物理学哲学著作,1687年首次出版。

《自然哲学的数学原理》是牛顿重要的物理学哲学著作。全书分为三卷,第一卷“论物体的运动”,表述了牛顿三定律;第二卷也是“论物体的运动”,论述了阻力下物体的运动,为流体力学开先河;第三卷“论宇宙的系统”,讨论了宇宙系统。

《自然哲学的数学原理》总结了近代天体力学和地面力学的成就,为经典力学规定了一套基本概念,提出了力学的三大定律和万有引力定律,从而使经典力学成为一个完整的理论体系。该书意味着经典力学的成熟,其中所建立的经典力学的理论体系成为近代科学的标准尺度。

深度学习实战篇之 ( 五) -- TensorFlow学习之路(二)_第1张图片

前言

上周的文章中我们学习了一些Tensorflow平台的基本知识,了解了TensorFlow如何使用,如何申明常量和变量以及计算操作。本篇文章,小编继续带大家一起学习TensorFlow的其他使用操作,只有更好的了解其基本使用,后期才能更加快速的方便的构建我们想要的神经网络,一起来看看吧!

一、TensorFlow常见操作

介绍TensorFlow的的常见操作之前,我们需要注意以下几点

  1. TensorFlow平台编写的代码最好运行在带有GPU的电脑上,如此才可以更快的得到训练结果,如果是CPU平台的哈,训练过程将会十分缓慢。因此,在之前的安装教程(python环境搭建(番外篇)---那些年走过的路)中,我们了解到有CPU版本和GPU版本的TensorFlow,如果是安装的时候选择了GPU版本,并且配置好了相应的显卡驱动和cuda之类的话,代码在训练过程中会自动调用GPU实现加速训练的效果,如果有多快显卡需要指定某一块,在后面的代码中,我们会讲解,请注意查看。

  2. TensorFlow的代码编写流程是,事先申明常量和变量,以及计算方式,这个时候就可以构建为一个默认的计算图(不需要额外操作),随后要想真正的执行前面操作,我们需要开启一个会话(session),在会话里面执行计算图(也就是之前我们定义的计算方式),执行的时候采用的是run语句,即将想要执行的操作放在run语句里面即可。

深度学习实战篇之 ( 五) -- TensorFlow学习之路(二)_第2张图片

1.1 Feed操作

在TensorFlow中,可以将要想使用的数据不在开头就导入,而是在开头定义一个给数据占位的变量即可,但是这个占位的变量通常必须包含数据的维度信息,在会话中的run语句中才真正的导入数据。在TensorFlow中采用tf.placeholder()语句实现占位的效果,最后在run语句中采用feed_dict{}实现真正的输入喂入,下面来看实例:

深度学习实战篇之 ( 五) -- TensorFlow学习之路(二)_第3张图片

运行结果:

深度学习实战篇之 ( 五) -- TensorFlow学习之路(二)_第4张图片

1.2 全连接层简单实现

    在TensorFlow中实现全连接层有两种方式:第一种是直接定义矩阵权重矩阵w和偏置b,然后用矩阵乘法实现w*x+b即可,第二种是采用TensorFlow封装好的layers.Dense()函数, 这种方式较为简单,我们后期再来使用,目前,先采用第一种方式实现:

代码实现:

深度学习实战篇之 ( 五) -- TensorFlow学习之路(二)_第5张图片

实验结果:

深度学习实战篇之 ( 五) -- TensorFlow学习之路(二)_第6张图片

深度学习实战篇之 ( 五) -- TensorFlow学习之路(二)_第7张图片

END

结语

考虑到今天是清明,小编的分享就到此结束了,今天的操作很简单,一个是数据的导入方式,另一个是全连接层的简单实现,虽然是简单实现,但是其中数据和权重矩阵的维度信息和计算结果,希望大家好好看看哦,之后的神经网络搭建将会对维度信息进行更加深入的理解。

编辑:玥怡居士|审核:小圈圈居士

精彩推荐

深度学习实战篇之 ( 四) -- TensorFlow学习之路(一)

深度学习实战篇之 ( 三) -- 初识人脸检测

深度学习实战篇之(二)----- 梯度下降算法代码实现

过去的日子,我们都做了啥:

【年终总结】2021,辞旧迎新再出发

【年终总结】辞旧迎新,2020,我们再出发

深度学习实战篇之 ( 五) -- TensorFlow学习之路(二)_第8张图片

扫码关注我们

IT进阶之旅

深度学习实战篇之 ( 五) -- TensorFlow学习之路(二)_第9张图片

我就知道你在看!

你可能感兴趣的:(tensorflow,深度学习,人工智能,神经网络,计算机视觉)