【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN

Windows 安装 TensorFlow、CUDA Toolkit、cuDNN

  • 整体流程概述
    • TensorFlow 与 CUDA Toolkit
      • TensorFlow 是一个基于数据流图的深度学习框架
      • CUDA 充分利用 NIVIDIA GPU 的计算能力
      • CUDA Toolkit
    • cuDNN
  • 安装详细流程
    • 整理流程一:安装 CUDA Toolkit
      • 步骤一:获取CUDA版本信息
      • 步骤二:下载安装 CUDA Toolkit
      • 步骤三:按照默认步骤安装
      • 步骤四:检查CUDA安装成功
    • 整体流程二:安装cuDNN
      • 步骤一:下载 cuDNN
      • 步骤二:解压缩下载的 zip,并将其中的文件复制到 CUDA Toolkit 的相应目录
      • 步骤三:配置环境变量
    • 整体流程三:安装 TensorFlow-gpu
      • 步骤一:Anaconda中创建新的环境
      • 步骤二:查看下载 tensorflow-gpu 的版本号
      • 步骤三:检查整体流程安装成功
      • 步骤四:检查 cuDNN 安装成功可用


整体流程概述

TensorFlow 与 CUDA Toolkit

TensorFlow 是一个基于数据流图的深度学习框架

  • TensorFlow是一个基于数据流图的深度学习框架,它使用张量(Tensor)作为数据的基本单位,在GPU上进行张量运算可以极大地提高深度学习模型的训练和推理速度。而CUDA则提供了在GPU上执行高性能并行计算所需的API和运行时环境,能够实现深度学习任务的加速。

CUDA 充分利用 NIVIDIA GPU 的计算能力

  • 安装 TensorFlow 之前需要首先安装 CUDA,准确的说是 CUDA Toolkit。是因为 TensorFlow 使用 CUDA 作为其后端计算引擎。CUDA 是由 NVIDIA 提供的并行计算平台和编程模型,可以充分利用 NVIDIA GPU 的计算能力,实现高性能的并行计算。

CUDA Toolkit

  • 即 TensorFlow 默认会安装与系统和 GPU 兼容的版本,这需要依赖 CUDA Toolkit。CUDA Toolkit 包含 GPU 驱动程序、CUDA Runtime 库和相关工具,使 TensorFlow 能够与 NVIDIA GPU 进行交互并利用其计算能力。

cuDNN

  • 在安装 TensorFlow 之前需要安装 cuDNN(CUDA Deep Neural Network library),是因为 TensorFlow 使用 cuDNN 来加速深度神经网络的计算。cuDNN 是由 NVIDIA 开发的用于深度学习的 GPU 加速库,它针对深度神经网络的计算任务进行了高度优化,可以显著加快训练和推理过程。

  • TensorFlow 通过调用 cuDNN 的 API 来利用 GPU 上的硬件加速功能,特别是在卷积操作等深度学习任务中,cuDNN 能够提供很大的性能提升。在没有 cuDNN 的情况下,TensorFlow 会使用 CPU 来执行这些计算任务,但是由于 CPU 的计算速度相对较慢,处理大规模的深度学习模型时可能会非常耗时。


安装详细流程

【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第1张图片

整理流程一:安装 CUDA Toolkit

步骤一:获取CUDA版本信息

桌面 > 右键 > NVIDIA控制面板 > 查看系统信息 > 点击组件 > 查看 NVCUDA64.DLL 的 CUDA版本 > 成功获取CUDA版本信息;

【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第2张图片


步骤二:下载安装 CUDA Toolkit

访问 CUDA Toolkit Archive https://developer.nvidia.com/cuda-toolkit-archive 下载对应版本的 CUDA Toolkit,根据步骤一中的 CUDA 版本信息(例如我的CUDA版本为12.0.134),选择下载 Toolkit 版本:

【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第3张图片

并开始下载,耐心等待10分钟;

【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第4张图片


步骤三:按照默认步骤安装

按照向导进行安装即可;

【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第5张图片
【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第6张图片
【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第7张图片
【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第8张图片


步骤四:检查CUDA安装成功

安装完成后,你可以在命令提示符或 PowerShell 中输入以下命令来验证 CUDA 是否成功安装:

nvcc -V

或者同:

nvcc --version

【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第9张图片

如果安装成功,将会输出 CUDA 的版本号。下面我们进行安装 cuDNN;


整体流程二:安装cuDNN

步骤一:下载 cuDNN

  • 访问 cuDNN 下载网址:https://developer.nvidia.com/rdp/cudnn-download;

  • 出现下图界面说明你需要首先登陆你的 NIVIDIA 账户;

【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第10张图片

  • 出现如下界面,需要根据本机的 CUDA 版本选择安装,如何获取本机的 CUDA 版本?如下:

获取CUDA版本信息:
桌面 > 右键 > NVIDIA控制面板 > 查看系统信息 > 点击组件 > 查看 NVCUDA64.DLL 的 CUDA版本 > 成功获取CUDA版本信息,即 12.x

【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第11张图片

  • 根据上述获得的 CUDA 版本信息,选择下载 12.x 版本的cuDNN;

【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第12张图片

步骤二:解压缩下载的 zip,并将其中的文件复制到 CUDA Toolkit 的相应目录

  • 解压缩后应该包含三个文件夹和一个文件:
    binincludelibLICENSE

【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第13张图片

  • 将三个文件夹中的文件分别复制到各自的 CUDA Toolkit 目录中
    • 首先打开 bin 文件夹:
      【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第14张图片
      复制全部文件,粘贴到 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.0\bin 文件夹中;

    • 然后打开 include 文件夹:
      【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第15张图片
      同样复制全部文件,粘贴到 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.0\include 文件夹中;

    • 最后打开 lib\x64 文件夹:
      【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第16张图片
      将全部文件粘贴到 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.0\lib\x64 文件夹中;

步骤三:配置环境变量

  • 确保将 CUDA 和 cuDNN 的安装路径添加到系统的环境变量中,这样 TensorFlow 才能正确地找到这些库和头文件;
  • cuDNN 中不会默认配置环境变量,需要读者手动配置环境变量:
  • 首先打开 环境变量 path 栏目:

【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第17张图片

  • 将解压缩后的 cuDNN 文件夹的 \bin 绝对地址复制粘贴:
    C:\Users\xhong\Downloads\cudnn-windows-x86_64-8.9.3.28_cuda12-archive\cudnn-windows-x86_64-8.9.3.28_cuda12-archive\bin

【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第18张图片

完成!

cuDNN的完成检查需要等待下一步 tensorflow-gpu 安装完成后;


整体流程三:安装 TensorFlow-gpu

  • 在安装完 cuDNN 后,再安装 TensorFlow 时,TensorFlow 将能够识别到你的 cuDNN 并自动与之集成,从而在 GPU 上运行深度学习任务时获得显著的加速效果。总之,安装cuDNN是为了充分发挥GPU的计算能力,提高TensorFlow的性能和效率,特别是在处理复杂的深度学习模型时,cuDNN的优化可以为你节省大量时间。

步骤一:Anaconda中创建新的环境

  • 建议在 Anaconda Prompt 中创建一个新的环境,因为我的 base 环境已经安装好了 gpu 版本的 torch,而且如果都放在一个环境中更新环境会比较耗时;

  • 创建环境 tensorflow

    conda create -n tensorflow pip python=3.8
    
  • 激活环境 tensorflow

    activate tensorflow
    

    【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第19张图片

步骤二:查看下载 tensorflow-gpu 的版本号

https://www.tensorflow.org/install/source_windows?hl=zh-cn
网址最下方有一个表格,列有 GPU 的 CUDA、cuDNN 对照的安装的 tensorflow-gpu 版本号

【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第20张图片

  • 很明显,根据我的 cuDNN(8.9.3.28) 与 CUDA(12.0.134) 版本的短板效应,我稳妥选择 tensorflow_gpu-2.4.0 版本,建议读者到这里也这么选择,稳定能用就是了;

  • 输入命令:

    pip install --ignore-installed --upgrade tensorflow_gpu==2.4.0
    # 注意将2.4.0替换为你的版本号
    

等待安装完成!

步骤三:检查整体流程安装成功

  • 打开 Pycharm,记得将环境从 base 切换到刚刚创建配置的 tensorflow:

    import tensorflow as tf
    
    # 检查是否有可用的 GPU 设备
    if tf.config.list_physical_devices('GPU'):
        print('GPU可用')
    else:
        print("GPU不可用")
    

    【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第21张图片

  • 出现上图所示 True,即完成安装步骤,若出现 curand64_10.dll is not found 等标识,即说明下载安装相关 CUDA Toolkit 版本出现意外错误,解决办法为通过将文件中已含有的 curand64_11.dll 文件重命名可解决问题,如下图所示:

    【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN_第22张图片

  • bin文件目录地址为:C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.0\bin

  • 安装 CUDA 后,再安装 TensorFlow 时,TensorFlow 将会自动与 CUDA 进行集成,并在 GPU 上利用 CUDA 的功能来加速深度学习任务。这样,TensorFlow 能够更高效地执行张量计算,从而显著提高模型训练和推理的速度。

步骤四:检查 cuDNN 安装成功可用

import tensorflow as tf

# 检查TensorFlow-gpu是否可用
print("TensorFlow-gpu available:", tf.test.is_gpu_available())

# 检查cuDNN是否可用
print("cuDNN version:", tf.config.list_physical_devices('GPU'))

在这里插入图片描述
完结撒花!!!!~~~~

你可能感兴趣的:(tensorflow,windows,人工智能)