tf-gpu为啥子不会并行??——总是只用一个卡

没有任何特殊设置,甚至都没有GPU设置,我都不知道这是为啥子?同样的程序,

【本文是死磕笔记的持续】

tf-gpu为啥子不会并行??——总是只用一个卡_第1张图片

我跟说理去,这真是郁闷了,我想同时用起来这几个卡,为啥子就是不行呢??

试试我之前的方法吧:

1-指定GPU

这是最笨的方法,也可能是没有任何屁用的方法。

os.environ["CUDA_VISIBLE_DEVICES"] = "0,1"

事实以及实际证明没屁用。

2-内存增长

emm,这个看起来还有点技术含量,实际上如何呢?

参考我之前的博文:https://blog.csdn.net/SPESEG/article/details/103042752

实际上效果更差了,呵呵,效果还是有的。。。。。。。。。

我太难了。。

3-我没办法了,要这么看的话,给我256个卡也不能同时用起来啊,这又是为啥子呢??

人生艰难啊。

4-keras版本的发现了很好用的函数multi_gpu啥的,直接解决

但是速度看起来并没有提高啊,emm,这是为啥子呢?我试试3个卡的,如有提高,效果应该很明显的,之前一个epoch要1个小时,

实际也是差不多一个小时,这就懵逼了

而且增加batch_size也是无济于事的,如下

仍旧需要一个小时,so what's wrong ? In fact, the percentage is little from the watch ,emm,not always 

tf-gpu为啥子不会并行??——总是只用一个卡_第2张图片

这个问题还是在于数据处理的问题,图像数据的读取估计是在CPU上的,所以这个过程无法避免,如果我将这个过程也放到GPU估计会好很多。

 

5-tf版本的,emmm,目前只看到with tf.device()啥的。。。

 

人生不易,请你相信我。

 

另外有相关问题可以加入QQ群讨论,不设微信群

QQ群:868373192 

语音图像深度学习群

csdn不要给我私信了,看不到[总是有短信提醒我]。有这个功夫加群了。

 

你可能感兴趣的:(python,tf-gpu,GPU并行?)