懂GPU服务器的工作原理

GPU服务器是一种用于计算机科学技术领域的计算机及其配套设备,于2017年5月31日启用。

一、GPU服务器的用途

GPU服务器是基于GPU功能的视频编解码、深度学习、科学计算等多种场景的快速、稳定、弹性的计算服务,提供和标准云服务器一致的管理方式。出色的图形处理能力和高性能计算能力提供极致计算性能,有效解放计算压力,提升产品的计算处理效率与竞争力。

它可以运用于地理空间数据的3D 可视化,视频稳像、过滤、马赛克、转码等应用研究与教育,例如成像和处理、结构化分析和计算物理学等天体物理学,计算流媒体动力学,动画制作,高性能计算等气象预报,量子物理,生物化学,设计,地质勘查等行业用户。

二、GPU服务器的工作原理

简单的说GPU就是能够从硬件上支持T&L(Transform and LighTIng,多边形转换与光源处理)的显示芯片,因为T&L是3D渲染中的一个重要部分,其作用是计算多边形的3D位置和处理动态光线效果,也可以称为“几何处理”。一个好的T&L单元,可以提供细致的3D物体和高级的光线特效;只不过大多数PC中,T&L的大部分运算是交由cpu处理的(这就也就是所谓的软件T&L),由于CPU的任务繁多,除了T&L之外,还要做内存管理、输入响应等非3D图形处理工作,因此在实际运算的时候性能会大打折扣,常常出现显卡等待CPU数据的情况,其运算速度远跟不上今天复杂三维游戏的要求。

CDCC专家经过多年的资料收集和研究,总结出了一套我们认为比较科学的用电量计算方法。就是计算在线运营服务器的数量。CDCC专家经过多年统计,2021年在线运行服务器约1390万台,单台服务器的使用功率按500W计算,网络等设备10%计算,再乘以PUE,年用电量 = 使用功率 x 24 x 365。2021年全国数据中心总的用电量约937亿度,不到一个三峡水电站。

懂GPU服务器的工作原理_第1张图片

三、GPU服务器的性能

1、GPU云服务器归属于BCC云服务器产品,控制台所有操作与BCC云服务器保持一致;

2、提供1卡、2卡、4卡GPU实例套餐供您选择,对应的CPU、内存、本地磁盘配置线性增加;

3、GPU卡类型多样:提供适用于深度学习离线训练场景的NVIDIA Tesla P40、K40 和深度学习开发卡,也提供更适用于在线预测场景的NVIDIA Tesla P4 GPU卡;

4、默认提供集成GPU驱动和CUDA的Ubuntu 16.04镜像,同时也可以提供Windows、Centos镜像等更多发行版公共镜像支持;

5、GPU服务器是百度云中配备独享GPU卡的高性能云计算服务,可以帮助您快速、便捷地获得高质量的GPU计算资源,能够大幅提高机器学习及科学计算等大规模计算框架的运行速度,为搭建人工智能及高性能计算平台提供基础架构支持。

懂GPU服务器的工作原理_第2张图片

你可能感兴趣的:(人工智能,算法)