compilation terminated. ninja: build stopped: subcommand failed.问题解决/Error building extension ‘_prro

compilation terminated. ninja: build stopped: subcommand failed.问题解决/Error building extension ‘_prro_第1张图片

compilation terminated. ninja: build stopped: subcommand failed.问题解决/Error building extension ‘_prro_第2张图片

也就是当前环境找不到cuda。

说明$CUDA_HOME 设置错了

将其改成下面这样 ,再次尝试

请添加图片描述

请添加图片描述

还是不行
尝试加上LD_LIBRARY_PATH
在这里插入图片描述

compilation terminated. ninja: build stopped: subcommand failed.问题解决/Error building extension ‘_prro_第3张图片
果然可以了

问题总结

  1. 这个prroipooling报错信息不是需要在具体指令后面找, 是那个file no found
  2. 根据报错信息一个一个解决
  3. 主要是环境问题

问题收获
通过个人用户的环境变量控制cuda 环境 需要设置两个变量CUDA_HOME和LD_LIBRARY_PATH ;另外, 因为是3090服务器,需要指定11以上的cuda

  • prroipooling 无法在cuda11.3的最新版pytorch上跑
  • precise roi pooling 编译不过如何找问题, 如何解决问题 ,
  • 如何通过环境变量设置cuda
  • 创建虚拟环境可以自己配置一致cuda 和cudnn的pytorch
  • https://developer.nvidia.com/rdp/cudnn-archive 这个找 cudnn 然后# conda install cudnn=8.2.1 -y
  • 然后cuda一般torch 的conda指令都会带cuda

之前没设置环境变量也是可以跑的, 昨晚设置完环境变量就不行, 各种坑.

你可能感兴趣的:(bug,pytorch,深度学习,人工智能)