远程服务器搭建GPU版的Pytorch框架

远程服务器搭建GPU版的Pytorch

  • .连接linux系统的工具

putty- 简单易用,占用空间少;
xshell-收费,可以破解;
MobaXterm - 有文件操作列表,可以像windows一样查看每个目录的文件,可以更清楚每个文件存放的位置。功能性较强,可以尝试。

  • 文件传输工具-本地电脑向服务器传输文件或者服务器传输文件到本地电脑:

FileZilla-只需输入远程服务器的ip地址和端口即可,功能比较齐全。
xftp

  • .查看远程服务器安装系统的版本和显卡的型号:

查看远程服务器安装的系统版本:
cat /etc/issue

查看显卡的型号:
lspci | grep -i nvidia
远程服务器搭建GPU版的Pytorch框架_第1张图片
红色箭头指的就是显卡的型号,可以进入这个网站进行查询自己显卡的型号,然后下载对应的显卡驱动
http://pci-ids.ucw.cz/mods/PC/10de?action=help?help=pci
远程服务器搭建GPU版的Pytorch框架_第2张图片
查询之后可以看到自己的显卡类型,红色框标记出来的地方就是显卡的型号
远程服务器搭建GPU版的Pytorch框架_第3张图片

驱动安装

  • 进入驱动下载的官网 https://www.nvidia.cn/Download/index.aspx?lang=cn
  • 然后选择对应的版本进行下载
  • 远程服务器搭建GPU版的Pytorch框架_第4张图片
  • 在linux系统中就使用命令进行安装`

```bash
wget https://cn.download.nvidia.cn/XFree86/Linux-x86_64/515.65.01/NVIDIA-Linux-x86_64-515.65.01.run
chmod a+x NVIDIA-Linux-x86_64-515.65.01.run
./NVIDIA-Linux-x86_64-515.65.01.run

如果出现nvidia-installer: Error opening log file ‘/var/log/nvidia-installer.log’ for writing (Permission denied); disabling logging. 这个代码错误的话,一般就是需要用在root用户下进行安装,只需要将用命令

sudo ./NVIDIA-Linux-x86_64-515.65.01.run

  • 使用命令进行查看 nvidia-smi
    远程服务器搭建GPU版的Pytorch框架_第5张图片
  • 对这个表格的解读,以虚线为界线,第一部分的第一行就是
  • nvidia-smi命令的版本
  • 显卡驱动的版本
  • cuda的版本
  • 后面第二部分和第三部分是显存和显卡的使用率

安装conda

wget https://repo.anaconda.com/archive/Anaconda3-2020.07-Linux-x86_64.sh
chmod a+x Anaconda3-2020.07-Linux-x86_64.sh
./Anaconda3-2020.07-Linux-x86_64.sh

现在安装完成了,然后使用命令加载一下环境变量。

source ~/.bashrc

至此,环境安装成功。

结果显示

  • 查看是否有cuda、cuda的版本、显卡的个数和显卡的名称
    远程服务器搭建GPU版的Pytorch框架_第6张图片
  • 后续,可以自己搭建深度学习的环境来学习。

你可能感兴趣的:(服务器,pytorch,linux)