下次去实验室一定记得带钥匙 ┭┮﹏┭┮
一、昨天的tif转化成tif
1、直接用谷歌的第一个网站就可以转化。
可能是被百度的第一个网站都是广告弄怕了,第一个网站习惯性不敢点。。。。
https://www.iloveimg.com/zh-cn/convert-to-jpg/tiff-to-jpg
真的是不错的网站。但是转化数量有限制。而且效果不大好。
第二个网站其实效果还好,但是要冲会员。(再说吧我先试试看python)
2、继续尝试用python代码进行转化。
解决办法1:
先去查TIFF.open这个函数怎么用。
我觉得我的问题出在tiff.open打开的图我没有调用起来。
查不到。
解决办法2:
直接看tiff.open的结构。
是一个object类型的文件,好像没有用。
解决办法3:用cv2模块尝试一个图
import numpy
import cv2
read_img_name = './testA/1A.jpg'
img = cv2.imread(read_img_name)
file_name = './testA1/1A.jpg'
cv2.imwrite(file_name, img)
说是文件无法打开。
好像也不行。
tips:找原始文章,从引文里去找
https://zhidao.baidu.com/question/150762478.html?qbl=relate_question_4
解决办法4:
好像真的直接改名字就可以了
图标最上方,“查看”那里勾选上“文件拓展名”就可以了。
用renamer,把忽略拓展名那里点掉,就可以了。
解决办法:renamer
注意添加规则的时候选用:用分隔符添加规则。
二、继续跑CycleGAN,能跑起来就可以
1、在上传数据的时候,我需要查如何关掉服务器,服务器自己还能跑程序。
查询的关键词“linux ssh 状态下如何在后台运行程序”
参考网站:
https://blog.csdn.net/Cowry5/article/details/80630324
https://www.ibm.com/developerworks/cn/linux/l-cn-nohup/index.html
https://www.zhihu.com/question/20709809
2、等文件真的跑起来了,开始跑epoch的时候,我再看后台跑程序的操作。
奇怪。明明没有tif文件了,为什么还会报错tif的读取warning呢?类似这个:
我check一下文件夹吧
好像没有tiff文件啊,那我不管了。。。
还是查一下吧,不然不放心。
查不到,先不管了吧。。。。
3、开始学习怎么在后台跑程序
我是用nohup来做的,运行的代码前面加nohup 后面加&
问题1:现在程序在跑了,我想知道怎么看程序跑了多少以及怎么看程序有没有结束或者看结果。
参考网站:https://www.cnblogs.com/baby123/p/6477429.html
我输入这行命令之后下面给出的是进程号:4473
查看运行的进程:jobs -l
直接输入这行代码,就可以查看正在运行的进程:有进程号,有输入的命令行的名称。
问题2:怎么看代码运行结果呢?
在主文件夹下有一个文件叫“np.out”,其实是一个txt格式的文件,点开就可以看到输出。这个输出就是正常的时候运行时,命令行上面显示的内容。
最终的输出应该还是该在哪儿就在哪儿吧。
然后代码让它跑着吧。
后来我关掉服务器控制端,再打开,从drop_out上看,他们一样运行得很好。
三、先看那篇合成的groundtruth generator的文章
但是现在好饿啊。
我还是先看那篇文章吧,学习一下它是怎么生成groundturh的,因为万一GAN train不出来呢。
它的groundturh和original image是怎么同时生成的,蛮好奇的这一点的。
但是我觉得可能不适合我的情况,我先进行下一步吧。
四、用GAN生成groundtruth
其实我比较想试试看用GAN生成groundtruth的哎。
我觉得可以试试看吧。
具体该怎么做呢?
1、首先我用基础的GAN生成,看一下结果。
然后我用https://medium.com/@jonathan_hui/gan-super-resolution-gan-srgan-b471da7270ec里提到的superresolutionGAN去尝试结果。
https://github.com/Hi-king/superresolution_gan
只有一个GPU,没办法同时跑。。。。有两个GPU就好了 你去问一下学长吧 让他给你开一个新的GPU。 (*/ω\*)
nvdia-sim去查哪个GPU可以用,应该是GPU0可以用。
知道昨晚的命令行里的gpu_id的用途了。
2、GAN生成的图一般是很小的哎。
superrresolution GAN是用来增加纹理用的哎。
试试DCGAN
https://github.com/Newmu/dcgan_code 试试这个code。
一些改进的GAN的结构:
https://blog.csdn.net/qq_25737169/article/details/78857788
比如可以玩一玩BEGAN
结论:“但是个人认为,虽然得出的结论是没有明显的证据说明其他GAN比原始GAN好,但是我想说,有本事你用原始GAN生成一个2K的高清图给我看看,此时BEGAN和PG-GAN相视一笑,默默不说话。大部分情况来说,还是wgan-gp用的更多一些。生成高清图像BEGAN最简单合适。”
感谢Hans发给我的文章
https://github.com/tkarras/progressive_growing_of_gans
我会去看和跑的。
https://github.com/github-pengge/PyTorch-progressive_growing_of_gans
五、GAN的基础知识
https://www.jiqizhixin.com/articles/2017-09-25-3
晚上:
(1)回去查CS231n去弄清楚batch和patch的区别,并用Hans提醒我的方法去试试看。
(2)把那个groundtruth generator做出来
六、看懂CycleGAN的代码
比如在哪里改参数,弄清楚所有的参数分别在哪里改。
学长给我的建议是:增加batch_size,这样数据会跑得快一点。
依旧是 nvdia -sim 里可以查到memory用了多少。
七、学习580的课程
晚上一直在看580