深度学习中:使用GPU和CPU的区别

深度学习框架:Tensorflow
显卡型号:GTX 1060
CPU型号:i5-8300H

深度学习:使用GPU和CPU的区别

  • 前言
  • 代码
  • 结果
  • 总结


前言

  这几天在做深度学习,想看看为什么 GPU 比 CPU 更适合做深度学习,于是简单的让 GPU 和 CPU 分别做矩阵的乘法运算看看运行情况。


代码

代码如下:

import tensorflow as tf
import timeit
import numpy as np
import matplotlib.pyplot as plt
# 以矩阵A[1,n]和矩阵B[n,1]的乘法运算(分别在cpu和gpu上运行)来测试:
def cpu_run(num): 
  with tf.device('/cpu:0'):         #指定操作:用cpu计算
    cpu_a=tf.random.normal([1,num])
    cpu_b=tf.random.normal([num,1])
    c=tf.matmul(cpu_a,cpu_b)        #矩阵乘法,此操作采用cpu计算
  return c

def gpu_run(num):
  with tf.device('/gpu:0'):         #指定操作:用gpu计算
    gpu_a=tf.random.normal([1,num])
    gpu_b=tf.random.normal([num,1])
    c=tf.matmul(gpu_a,gpu_b)        #矩阵乘法,此操作采用gpu计算
  return c
k=10
m=7
cpu_result=np.arange(m,dtype=np.float32)
gpu_result=np.arange(m,dtype=np.float32)
x_time=np.arange(m)
for i in range(m):
  k=k*10
  x_time[i]=k
  cpu_str='cpu_run('+str(k)+')'
  gpu_str='gpu_run('+str(k)+')'
  #print(cpu_str)
  cpu_time=timeit.timeit(cpu_str,'from __main__ import cpu_run',number=10)
  gpu_time=timeit.timeit(gpu_str,'from __main__ import gpu_run',number=10)
  # 正式计算10次,取平均时间
  cpu_time=timeit.timeit(cpu_str,'from __main__ import cpu_run',number=10)
  gpu_time=timeit.timeit(gpu_str,'from __main__ import gpu_run',number=10)
  cpu_result[i]=cpu_time
  gpu_result[i]=gpu_time

print(cpu_result)
print(gpu_result)

fig, ax = plt.subplots()
ax.set_xscale("log")
ax.set_adjustable("datalim")
ax.plot(x_time,cpu_result,color='#005FDD', alpha=0.8, linewidth=1, label='C P U')
ax.plot(x_time,gpu_result,color='#47AC3A', alpha=0.8, linewidth=1, label='G P U')
ax.grid()
plt.legend(loc="upper right")
plt.title("CPU和GPU运行对比")  
plt.xlabel('计算量')
plt.ylabel('时间')
plt.draw()
plt.show()

结果

结果如下:

深度学习中:使用GPU和CPU的区别_第1张图片


总结

结论:

  • 1、在计算量较小的情况下,cpu的计算速度和gpu差不多,微量级别的差异
  • 2、随着计算量的增加,cpu的计算时间逐步增加,而gpu的计算时间相对平缓,在计算量达到一定程度之后,gpu的优势就出来了。

综上所述:大量数据下,GPU的优势就体现出来了!

你可能感兴趣的:(学习,深度学习,机器学习,python,tensorflow)