3090下配dgl+torch环境

3090不能使用cuda11.0以下的版本,花了大半天终于成功搞定dgl和torch的环境配置。主要是遇到一些cuda问题,期间明白了:

  1. 一个机器可以装多个cuda,修改.bashrc的path可以调整当前使用的cuda。而不影响其他用户。
  2. /usr/local/cuda的cuda只是个软链接,cuda-10.2这种路径才是真正存的路径。
  3. nvidia-smi和nvcc-V显示的可能不一样,没什么影响,而且这两者可能和python进去 import torch print(torch.version.cuda)显示的cuda版本还不一样,想跑通代码,关注好print(torch.version.cuda)的版本即可。
  4. 用https://developer.nvidia.com/cuda-toolkit-archive下载的cudatoolkit可能还会缺libcusparse.so.10,可以通过conda install -c pytorch cudatoolkit=10.2在conda当前环境下载,然后按下面这个链接:https://blog.csdn.net/sunyueqinghit/article/details/115821287解决问题

配环境的顺序:

  1. pip install torch1.8.0+cu111 torchvision0.9.0+cu111 -f https://download.pytorch.org/whl/torch_stable.html -i https://pypi.tuna.tsinghua.edu.cn/simple

  2. pip install -r requirement -i https://pypi.tuna.tsinghua.edu.cn/simple
    requirement:注意下dgl-cu111的写法
    scipy1.5.2
    numpy
    1.19.1
    networkx2.5
    scikit-learn~=0.23.2
    matplotlib
    3.4.1
    ogb1.3.1
    dgl-cu111
    0.6.1
    dgllife==0.2.6

你可能感兴趣的:(python,深度学习,开发语言)