[GITHUB]VQGAN-CLIP复现过程

代码源地址: VQGAN-CLIP源码地址
代码功能介绍: 使用GAN网络,通过英文描述生成图片介绍地址
使用软件: pycharm\anaconda\conda
易错资源包: torch-1.9.0+cu111-cp39-cp39-win_amd64.whl\vqgan_imagenet_f16_16384.ckpt

待解决: GPU加速问题

步骤:
1.
打开源码地址源码地址下载源码包,解压相应文件,在pycharm中打开[GITHUB]VQGAN-CLIP复现过程_第1张图片2.
打开后有README.md文件,参照其中步骤说明进行安装.[GITHUB]VQGAN-CLIP复现过程_第2张图片
2.1
anaconda环境安装:
需要安装anacoda与conda,安装过程基本可以选默认,其中需要注意的一点是安装anaconda时的PATH问题,(选择一:安装时勾选配置PATH路径;选择二:安装后通过找到安装路径,然后将路径添加到环境变量PATH中),conda是一个安装命令(存疑)
[GITHUB]VQGAN-CLIP复现过程_第3张图片
在pycharm控制台复制粘贴以上命令即可配置anaconda环境
2.2
在这里插入图片描述推荐在控制台ctrl点击链接进行手动下载,因为该文件下载龟速,下载完了手动安装一下就行
[GITHUB]VQGAN-CLIP复现过程_第4张图片[GITHUB]VQGAN-CLIP复现过程_第5张图片

安就完了
2.3
[GITHUB]VQGAN-CLIP复现过程_第6张图片
在这里如果报错,或者发现安装没反应推荐ctrl点击手动下载,然后更改图示名称放到相应文件夹内
3.
然后安装内容就完了
可以运行试一试

问题:
1.taming模块报错:
上面注释有写,请pip transformers即可解决
[GITHUB]VQGAN-CLIP复现过程_第7张图片2.CLIP报错
从源码网站找到了答案
git clone https://github.com/openai/CLIP
git clone https://github.com/CompVis/taming-transformers.git
克隆一下代码就行
[GITHUB]VQGAN-CLIP复现过程_第8张图片
目前就这些问题,已解决

你可能感兴趣的:(github,pycharm,pytorch)