用通俗易懂的方式讲解大模型:在 Ubuntu 22 上安装 CUDA、Nvidia 显卡驱动、PyTorch等大模型基础环境
虽然现在有很多云厂商都提供了GPU服务器,但由于GPU的资源稀缺,云GPU服务器要么就是价格居高不下,要么就是数量不足无法购买,因此能拥有一块属于自己的Nvidia显卡来跑AI程序是最好不过了。虽然现在高端的Nvidia显卡又贵又不好买,但是稍微低端的显卡还是好入手的,随着大模型的配置要求越来越低,在低端显卡上跑一些大模型也不是什么问题。不过即使你拥有了一块自己的Nvidia显卡,但环境配置也是一