首先我们在这篇文章中要安装的软件有:
我第一次接触时也很蒙为啥要装这些东西呢?他们都是干啥的具体有什么用呢?下面记录了一下我的理解
在安装的过程中经常会碰到虚拟环境这个名词,还用经常要配置环境变量,下面就做一个解释
3.双击下载好的应用程序,并进行安装(除了下述特别注意的步骤外,其他的默认选项即可)
4. 然后打开电脑左下角的windows图标,“最近添加”中就会多出来下面几个图标(后面会用到)
5. 然后点击Anaconda Navigator
这个过程中不要连外网!不然会出现如下的Error (第一次安装的时候因为这个折腾的好久以为是安装出错了)
正常情况下,打开后的界面长这样(目前只有一个base环境):
检查安装的Anaconda版本: 在Anaconda Prompt 中键入 conda -V
检查已经安装的包: 在Anaconda Prompt 中键入 conda list
查看当前环境: 在Anaconda Prompt 中键入 conda info -e
使用nvidia-smi
查询驱动版本, 我的电脑目前的驱动版本是461.73, 最高可以安装的cuda版本是11.2
注:驱动是向下兼容的,其决定了可安装的CUDA Toolkit的最高版本。
更多匹配组合可以到cudnn官网上去查看(一会也会在这个网站上下载cudnn)
cuda | cudnn | pytorch | tensorflow-gpu | python | torchvision |
---|---|---|---|---|---|
11.0 | 8.0.5 | 1.7.1 | 2.4.0 | 3.7(tensorflow) 3.8(pytorch) | 0.8.2 |
从CUDA Toolkit 官网下载地址上选择合适的版本进行下载
变量 值
CUDA_SDK_PATH C:\ProgramData\NVIDIA Corporation\CUDA Samples\v11.0
CUDA_LIB_PATH %CUDA_PATH%\lib\x64 CUDA_BIN_PATH %CUDA_PATH%\bin
CUDA_SDK_BIN_PATH %CUDA_SDK_PATH%\bin\win64
CUDA_SDK_LIB_PATH %CUDA_SDK_PATH%\common\lib\x64
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\lib\x64
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.0\bin
C:\ProgramData\NVIDIA Corporation\CUDA Samples\v11.0\common\lib\x64
C:\ProgramData\NVIDIA Corporation\CUDA Samples\v11.0\bin\win64
bandwidthTest.exe
deviceQuery.exe
如下图,Result=Pass , 安装成功。
2. 解压下载好的exe文件
3. 将解压后的 cuda 中的所有文件复制并粘贴到 “C:\Program Files\NVIDIA GPU Computing
Toolkit\CUDA\v11.0” 目录下。
打开Anaconda Prompt,在命令窗口输入命令 conda create -n pytorch python=3.7
(其中pytorch是我自己为虚拟环境起的名字,也可以取其他的名字。 这个过程中不要连外网,保持网络的通畅)
进入虚拟环境 activate pytorch
安装pytorch pip install pytorch==1.7.1
检查pytorch安装的版本
如果第三步出错,可以去官网轮子下载地址,选择适合自己版本的轮子,并下载到本地。
切换路径到这两个whl文件所在的文件夹下,然后再pip install 文件名
打开Anaconda Prompt,在命令窗口输入命令 conda create -n tf-gpu python=3.7
(其中tf-gpu是我自己为虚拟环境起的名字,也可以取其他的名字。 这个过程中不要连外网,保持网络的通畅)
进入虚拟环境 activate tf-gpu
安装tensorflow-gpu pip install tensorflow-gpu==2.4.0
如果安装失败,也可以去官网下载轮子:http://mirrors.aliyun.com/pypi/simple/tensorflow-gpu/
检查tensorflow的安装版本
在当前环境下键入下列三个命令:python
, import tensorflow as tf
,tf.__version__
常用命令汇总:
创建环境
conda create -n name python=version
删除环境
conda env remove -n name
激活环境
activate name
取消激活
deactivate
安装指定版本的tensorflow-gpu
pip install tensorflow-gpu== version
卸载已经安装的tensorflow-gpu
pip uninstall tensorflow-gpu-version
安装完成后,双击图标进入软件,选择Evaluate for free (也可以去官网上进行学生认证)
点击new project
New environment using 选择conda,以及你想要的python版本, 然后create。
点击File, setting , 找到python interpreter, 点击右边的设置图标,在弹窗中点击Add.
选择Conda Environmentm, Existing Environment, 在下拉框中选择你要导入的环境,最后点击ok.
导入成功后,如果下次你运行代码时想要选择某个虚拟环境,先点击"Edit Configuration"
然后选择你想要的python interpreter,点击ok 就可以啦!
activate pytorch
(此处以pytorch为例)conda install ipykernel
pip install notebook
python -m ipykernel install --user --name pytorch --display-name pytorch
(此处以pytorch为例,如果要导入tf-gpu, 把pytorch 替换成tf-gpu即可)ipython notebook
如果你装错了,先移除再重新安装:
移除写入notebook 的虚拟环境:jupyter kernelspec remove env_name (env_name 改为你要移除的虚拟环境的名称)
这时浏览器会自动打开notebook的界面,点击new, 选择你要使用的虚拟环境。(在使用notebook的过程中,不要关闭打开notebook的命令窗口,否则关闭窗口就相当于关闭了notebook)
切换当前环境为新建立的虚拟环境opencvEnv(在导航栏中点击“kernel","change kernel “,“opencvEnv”) ,然后就可以在你新建的文件夹里写代码了!
当然,写代码的过程中,你也可以切换你需要的虚拟环境: 点击"kernel”,“change kernel”,然后选择就好啦
下次再打开notebook时,还可以用cmd命令行窗口,切换路径(默认是c盘),然后键入jupyter notebook
, 最后按’'Enter"即可
import torch
a = torch.cuda.is_available()
print(a)
ngpu= 1
# Decide which device we want to run on
device = torch.device("cuda:0" if (torch.cuda.is_available() and ngpu > 0) else "cpu")
print(device)
print(torch.cuda.get_device_name(0))
print(torch.rand(3,3).cuda())
import tensorflow as tf
a = tf.test.is_built_with_cuda() # 判断CUDA是否可以用
b = tf.test.is_gpu_available(
cuda_only=False,
min_cuda_compute_capability=None
) # 判断GPU是否可以用
print(a)
print(b)
python
import tensorflow as tf
sess = tf.compat.v1.Session(config=tf.compat.v1.ConfigProto(log_device_placement=True))
打开任务管理器,点击“性能 ”,找到你自己英伟达显卡的GPU那一栏,点击一下,可以显示GPU的利用情况,正常情况下你没运行什么程序,GPU利用率什么的都是0,没有波澜,然后你运行代码,会发现GPU利用率开始变化了,以tensorflow的代码为例子。
import tensorflow as tf
with tf.device('/cpu:0'):
a = tf.constant([1.0, 2.0, 3.0], shape=[3], name='a')
b = tf.constant([1.0, 2.0, 3.0], shape=[3], name='b')
with tf.device('/gpu:1'):
c = a + b
# 注意:allow_soft_placement=True表明:计算设备可自行选择,如果没有这个参数,会报错。
# 因为不是所有的操作都可以被放在GPU上,如果强行将无法放在GPU上的操作指定到GPU上,将会报错。
sess = tf.compat.v1.Session(config=tf.compat.v1.ConfigProto(allow_soft_placement=True, log_device_placement=True))
# sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
sess.run(tf.compat.v1.global_variables_initializer())
print(sess.run(c))
因为之前的电脑总是系统出故障,格式化后配环境配了有三四遍,帮同学也配了几遍,终于买新电脑了,所以又配置了一遍,顺便记录一下配置过程。感觉之前不理解的东西也在这么多此的配置过程中明白了原理,所以安装失败不要怕!大不了卸载再重装,你会更加熟练的~
(希望电脑不要再坏了。。