这里对于Anaconda就不多做介绍,官网的地址为Anaconda,可以理解为你安装所需要的一切东西,它都可以给你提供。需要注意的是:
安装完成后,可在开始栏中发现已经有Anaconda的选项,选择Anaconda Powershell Prompt打开命令行。(注:若anaconda安装时选择的是for all users,则需要右键以管理员身份运行)
进入命令行界面后,需要将下图中的3行粘贴到命令行中,镜像网页的链接为:https://mirror.tuna.tsinghua.edu.cn/help/anaconda/
在prompt命令中界面中,设置镜像源之后,就可以安装gpu版本的tensorflow了。在命令行界面中输入conda install tensorflow-gpu,在安装过程中需要用户手动输入一个“y”之外,用户只需要等各项自动安装成功即可,对于我这种懒人来说,真是极其的方便。
显示安装成功后,就可以测试你所安装的TensorFLow-GPU是否安装成功,即测试是否真的有在GPU上跑。
测试过程参考了 https://blog.csdn.net/fanzonghao/article/details/82218621 这位仁兄帖子里面的过程,使用如下的代码:
#coding:utf-8
import tensorflow as tf
a=tf.constant([1.0,2.0,3.0],shape=[3],name='a')
b=tf.constant([1.0,2.0,3.0],shape=[3],name='b')
c=a+b
#log_device_placement=True 输出运行每一个运算的设备
with tf.Session(config=tf.ConfigProto(log_device_placement=True)) as sess:
print(sess.run(c))
在执行的过程中,通过打印日志可以发现均使用的GPU来进行计算,如下图所示。(注:为了能更好的看日志信息,建议在prompt中通过执行python脚本的方式执行,而非使用Jupyter Notebook)
使用如下的代码可以发现,可以通过指定的方式来决定哪些计算过程在CPU,哪些计算过程在GPU中。
#coding:utf-8
import tensorflow as tf
with tf.device('/cpu:0'):
a=tf.constant([1.0,2.0,3.0],shape=[3],name='a')
b=tf.constant([1.0,2.0,3.0],shape=[3],name='b')
with tf.device('/gpu:0'):
c=a+b
#log_device_placement=True 输出运行每一个运算的设备
with tf.Session(config=tf.ConfigProto(log_device_placement=True)) as sess:
print(sess.run(c))