LLM InternLM-Chat-7B书生模型、Baichuan-13B-Chat百川模型简单使用
指定GPU运行:#方式一(两行必须放在importtorch前面)#importos#os.environ['CUDA_VISIBLE_DEVICES']='5'#方式二(第一种不生效用这种,我这边这种可以生效)#importtorch#torch.cuda.set_device(5)1、InternLM-Chat-7B书生模型参考:https://huggingface.co/internlm/