【亲测】跑深度学习模型:笔记本的RTX3060 6G vs Google colab免费GPU 速度比较

简单测评

笔记本:thinkbook16p RTX3060标配

模型是FCN,跑的小数据集, 用的tensorflow
同样的数据和模型参数,我们来看看在两块GPU上的表现如何吧:

1、本地 RTX3060 6G (残血版,105w?):

【亲测】跑深度学习模型:笔记本的RTX3060 6G vs Google colab免费GPU 速度比较_第1张图片
2、Google Colab 分配的免费GPU:

【亲测】跑深度学习模型:笔记本的RTX3060 6G vs Google colab免费GPU 速度比较_第2张图片
【结果】除了第一个epoch速度不太稳定可以忽略:
本地RTX3060:8s /epoch
Colab免费GPU:6s /epoch
本地CPU:24s /epoch

(上一台笔记本的英特尔i5-8265U CPU 更慢,大概是50+s/epoch)

补充:偶尔本地GPU的速度能达到2s /epoch,但大部分情况下仍是8s/epoch
【亲测】跑深度学习模型:笔记本的RTX3060 6G vs Google colab免费GPU 速度比较_第3张图片
结论就是本地3060不如Colab上白嫖的GPU速度快 (真香!),不过没有差太多。但是Colab不好的一点就是太容易断连,这个真的很头疼。
对于本地的RTX3060, 我发现一个kernel只能开一个页面,再开第二个页面。训练模型时必崩溃。。必须restart kernel才行,可能是显存小的原因?总之感觉本地的这个3060局限还是挺多的,后面租GPU似乎是避免不了了。

但是目前对我来说,这块显卡还是很有用的,因为目前我的数据集和使用的模型都没有确定下来,还在探索中,使用租用的GPU实在是不方便,一个是需要频繁更换数据,另一个是配置环境。不得不说,Colab在配置环境这块真的很方便,库比较齐全,基本不需要额外安装。
当然,也不是只为了这个显卡才换的电脑,比如16寸的大屏是真的香(之前用了4年的14寸),除了键盘比较一言难尽外整体还是不错的。

ps: 笔记本最近刚降了一波价哦,现在某东和联想官网7999就能买到了,2月初的时候还是8499,我还是买早了(心痛)

=====================================
【更新】
免费GPU首推kaggle!p100 16G每周至少30小时,比Colab免费分配的Tesla T4快了好几倍。然后避坑Colab pro(在淘宝充的80多一个月)分配的GPU(Tesla v100 sxm2 )开到高配都和p100相差不大,体感甚至弱一些,而且每个月都有时间(算力)限制,注意是每个月(开最高配置,没仔细算过,估计12小时都跑不到。。性价比极低)
kaggle上除了不能改python版本和存储输出文件比较麻烦外,真的很良心了

你可能感兴趣的:(深度学习,tensorflow,gpu)