黄仁勋对台积电放核弹 干掉4万台CPU服务器计算光刻加速40倍

    GTIC2023中国AIGC创新峰会将于3月24日举行,聚焦ChatGPT引发的范式革命,解构生成型AI开创的新世界。

  智能东西3月22日报道,全球人工智能计算技术盛典,一年一度的英伟达GTC大会如约而至!

  英伟达CEO黄仁勋(昵称“老黄”)一如既往地穿着标志性皮衣演讲了78分钟,微笑着分享英伟达做了什么大事。

  总的来说,这次演讲可以概括为一个大演讲「亮点」和一大「重点」。

  「亮点」是英伟达秘密研发了四年,向芯片制造业抛出了一枚技术“核弹”——通过突破性光刻计算,将光刻计算加快40倍以上,使2nm和更先进的芯片生产成为可能。世界上最大的晶圆厂台积电、全球光刻机霸主阿斯麦、全球最大的EDA巨头新思科技都参与了合作并引进了该技术。

  老黄还直接上了一个光刻机小班,用动画讲解芯片制造最关键的设备光刻机是如何工作的。

  「重点」毫无疑问,它是生成式人工智能。

  老黄对OpenAI的ChatGPT赞不绝口,称赞它“震惊世界”,代表着“全新的计算平台已经诞生,AI的「iPhone时刻」已经到来了”。

  据英伟达介绍,OpenAI将在微软Azure超级计算机中使用英伟达H100GPU,AI文生图明星创企Stability.Ai是H100GPU的初始浏览客户。

  为了加快生成人工智能的开发和部署,老黄宣布推出三款全新推理GPU,加快推理人工智能视频、图像生成、ChatGPT等大型语言模型。

  此外,英伟达还发布了AI超级计算服务DGXCloud、加快公司建立大模型和生成人工智能云服务NVIDIAIFoundations,并宣布与日本三菱共同打造日本第一台生成人工智能超级计算机,加快药物研究。

  英伟达还为元宇宙、汽车、量子计算等领域发布了一系列新进展,包括PaaS服务NVIDIAOmniversecloud,现已对特定公司开放,与宝马集团扩大合作,建设虚拟工厂,比亚迪更多车型将采用NVIDIADRIVEOrin平台,并与Quantummachines合作,推出全球首个GPU加速量子计算系统。

  老黄宣布,英伟达已经更新了100个加速库。目前,英伟达的全球生态系统已经覆盖了400万开发商、4万家公司和1.4万家初创公司。

  01.

  芯片制造炸场!计算光刻加速40倍!

  三大半导体巨头站台

  让我们来看看今天的“惊喜弹”:英伟达发布了一项有利于先进芯片制造的突破性技术——NVIDIAculitho计算光刻库。

  光刻是芯片制造过程中最复杂、最昂贵、最重要的阶段,其成本约占整个硅片生产成本的1/3甚至更多。计算光刻模拟光通过光电器件与光刻胶相互作用时的行为。应用逆物理算法预测掩膜板上的图案,确保最终图案在晶圆上生成。

  简而言之,计算光刻是提高光刻分辨率、促进芯片制造达到2nm和更先进节点的关键途径。

  黄仁勋解释说:“计算光刻是芯片设计和制造领域最大的计算负荷,每年消耗数百亿CPU小时。”大型数据中心24x7全天候运行,以建立光刻系统覆盖板。这些数据中心是芯片制造商每年投资近2000亿$的一部分。”

  而culitho可以将计算光刻的速度提高到原来的40倍。老黄说,英伟达H100GPU需要89块掩膜板。在CPU上运行时,处理单个掩膜板需要两周时间,但在GPU上运行culitho只需要8个小时。

  此外,台积电可以通过在500个DGXH100系统中使用culitho来加速,将功率从35MW降低到5MW,取代之前用于计算光刻的4万台CPU服务器。使用culitho的晶圆厂每天可以生产3-5倍以上的光掩膜,只使用目前电力的1/9。

  世界上最大的晶圆厂台积电,世界上最大的光刻机制造商阿斯麦(ASML)、新思科技是世界上最大的EDA公司(Synopsys)都是为了这个新技术平台。老黄透露,culitho花了四年时间研发,并与这三家大型芯片制造商密切合作。台积电将于6月开始认证culitho的加工资格。

  台积电CEO魏哲家称赞它为台积电在芯片制造中广泛部署光刻解决方案开辟了新的概率,为半导体规模做出了重要贡献。阿斯麦CEOPeterwenink表示,阿斯麦计划将对GPU的支持整合到其所有计算光刻软件产品中。

  新思科技董事长兼CEOAartdegeus表示,在英伟达的culitho平台上运行新思科技的光学相邻校准(OPC)软件,将性能从几周加快到几天。

  culitho将帮助晶圆厂缩短原形周期,提高效率,减少碳排放,为2nm及以上先进技术奠定基础,促进曲线掩模,highNAEUV、新技术节点所需的新解决方案和创新技术,如亚原子级光刻胶模型,已成为可能。

  02.

  GPU专用推理发布ChatGPT专用推理

  浏览AI超级计算机浏览器即可浏览

  英伟达围绕生成式AI发布了一系列新的软硬件产品和服务,以加快模型训练和推理。

  在生成式AI革命之初,老黄首先讲述了英伟达是如何进入AI领域的。

  “英伟达加速计算始于DGX(AI超级计算机),这是大型语言模型突破背后的引擎。”他说:“(2016年)我亲自把世界上第一台DGX交给了OpenAI。从那以后,100强财富企业中有一半安装了DGXAI超级计算机。DGX已经成为AI领域的必备工具。”

  老黄说:“生成式AI将重塑几乎所有行业。ChatGPT、StableDiffusion、DALL-E和Midjourney唤醒了世界对生成式AI的认识。

  在他看来,生成式AI是一种新型计算机,一种可以用人类语言编程的计算机,以及个人计算机。(PC)、因特网,移动终端和云类似,这种能力意义深远,每个人都能指示电脑来解决问题,现在每个人都可以成为程序员。

  1、培训:生成型AI明星企业正在使用,AI超级计算机已经全面投产。

  在训练方面,英伟达H100GPU基于Hopper架构及其内置TransformerEngine,针对生成式AI。、优化了大型语言模型和推荐系统的R&D、培训和部署。与上一代A100相比,FP8精度提供了近9倍的AI培训和近30倍的AI推理。

  在FP8精度下,DGXH100拥有8个H100GPU模块,可以提供32PetaFLOPS的计算率,并提供完整的英伟达AI软件堆栈,有助于简化AI开发。黄仁勋宣布,NVIDIADGXH100AI超级计算机已经全面投入生产,并且很快将面向全球公司。Azure宣布将向H100AI超级计算机开放个人预览版。

  黄仁勋说,云计算巨头现在正在提供英伟达H100GPU,许多生成AI领域的明星企业都在利用H100加速工作。

  举例来说,OpenAI使用H100上一代A100训练和运行AI聊天机器人ChatGPT,H100将用于微软Azure超级计算机。;Stability,AI文生图明星创企。.Ai是H100在AWS上的初始浏览客户。

  最近,基于Hopper架构的AI超级计算机GrandTeton系统刚刚推出开源大模型社交软件巨头Meta。与上一代Zion相比,该系统的计算率有了很大的提高,可以同时支持推荐模型和内容理解的实践和推理。

  为了满足生成式AI训练和推理的需要,英伟达宣布推出强大的GPUNVIDIAH100TensorCoreGPU新产品和服务。

  即将推出的EC2非常集群(EC2P5案例)可以扩展到20000个互连H100。OracleCloudInfrastructure(OCI)宣布推出全新OCICompute裸金属GPU案例,选择H100。

  TwelveLabs计划在OCISupercluster中使用H100案例,为企业和开发者提供多模态视频理解平台,以实时、智能、易于搜索视频。

  2、推理:发布3款GPU、3类云服务

  在推理方面,英伟达推出了一个全新的GPU推理平台:4种设备(L4)TensorCoreGPU、L40GPU、H100NVLGPUP、GraceHopper非常芯片)、一种系统架构,一种软件栈,各自用于加快AI视频、图像生成、大型语言模型部署和推荐系统。

  (1)L4:通用GPU可以为AI视频设计提供比CPU高120倍的AI视频性能,能效提升99%;改进了视频解码和转码、视频内容审核、视频聊天等功能,如背景更换、再打磨、对视、转录和实时翻译等。一台8-GPUL4服务器将取代100多台双插槽CPU服务器进行AI视频处理。

  (2)L40:用于图像生成,2D支持图形和AI。、优化了视频和3D图像生成,推理性能是英伟达云推理GPUT4最受欢迎的10倍。

  H100NVL(3):对于ChatGPT等大型语言模型的大规模布局,配置双GPUNVLink,将两个具有94GBHBM3显存的PCIeH100GPU拼凑在一起,可以处理具有1750亿参数的GPT-3模型,同时支持商用PCIe服务器的轻松扩展。

  老黄说,HGXA100是目前云上唯一能实际处理ChatGPT的GPU。一台配备4对H100和双GPUNVLink的标准服务器,与适合GPT-3处理的HGXA100相比,H100可以将大型语言模型的处理成本降低一个数量级。

  (4)GraceHopper非常芯片:AI数据库适用于推荐系统和大型语言模型,图形推荐模型,向量数据库,图形神经网络的理想选择,英伟达GraceCPU和HopperGPU通过900GB/s的高速一致性芯片连接到芯片接口。

  谷歌云是第一家为客户提供英伟达L4推理GPU的云服务提供商。同时,谷歌还将L4集成到其VertexAI模型商店。

  3、云服务:浏览器可以浏览AI超级计算机

  英伟达与微软Azuree推出了一项名为DGXCloud的AI超级计算服务。、谷歌OCP、OracleOCI合作,可以通过Web浏览器浏览,使企业能够为生成AI和其他开创性应用提供先进的培训模式。

  DGXCloud案例的起步价是每个案例每月36999美元。每一个案例都有8个NVIDIAH100或A10080GBTensorCoreGPU,每一个节点都有640GB的GPU内存。DGXCloud带来了NVIDIADGXAI非常计算集群,并配备了NVIDIAAI软件。

  英伟达还推出了NVIDIAAIFoundations的全新云服务和代工厂,使企业能够构建、改进、运营使用其专有数据训练的定制大型模型和生成式AI模型,用于特定领域的任务:

  (1)NeMo:建立文本生成模型服务,提供80亿到5300亿参数的模型,会及时更新额外的培训数据,帮助企业定制客服、企业搜索、聊天机器人、市场信息等生成AI应用。

  (2)Picasso:视觉语言模型构建服务,具有先进的文生图、文本转视频、文本转3D功能,可以快速构建和定制使用自然文本提醒的产品设计、数字孪生、角色构建等应用的视觉内容。

  (3)BioNeMo:生命科学服务,提供AI模型训练和推理,加快药物研发中最耗时、最昂贵的时期,加快基因组学、化学、生物学、分子动力学研究等新蛋白质和治疗方案的建立。

  这些运行在NVIDIADGXCloud上的云服务可以通过浏览器或API直接浏览。NeMo、BioNeMo云服务已经开放初期浏览,Picasso云服务正在个人浏览中。

  英伟达还宣布了一系列与生成式AI相关的合作进展,包括与Adobe合作开发新一代先进的生成式AI模型;负责与GettyImages合作训练的文生图、文本转视频基本模型;与Shutterstock合作,训练从简单的文本提醒中建立生成式3D模型,将创作时间从几个小时减少到几分钟。

  03.

  BlueField-已经投产了3DPU

  建立全球首个GPU加速量子计算系统

  数据控制部件(DPU)黄仁勋宣布,英伟达BlueField-3DPU已经投入生产,并被百度、CoreWeave、JD.COM,微软Azure、OracleOCI、为了加快其云计算平台,腾讯游戏等领先的云服务提供商采用。

  对于量子计算,大量量子比特必须通过从量子噪声和相关性中恢复数据来纠正错误。在这方面,英伟达与QuantumMachines合作推出了一个量子控制链接,它可以将英伟达GPU连接到量子计算机上,并以极快的速度纠正错误。

  全球首个GPU加速量子计算系统NVIDIADGXQuantum,由NVIDIAGraceHopper非常芯片和CUDA量子开源编程模型支持,双方合作开发,将NVIDIAGraceHopper非常芯片与CUDA量子开源编程模型相结合,使科研人员能够构建强大的应用,将量子计算与最先进的经典计算相结合,实现校正、控制、量子纠错和混合算法。

  NVIDIADGXQuantum的核心是NVIDIAGraceHopper系统,通过PCIe连接到QuantumMachinesOPX通用量子控制系统。,在QPU和量子之间实现亚微秒延迟控制部件(QPU)。

  DGXQuantum还为开发者配置了一个强大的混合GPU-Quantum编程模型NVIDIACUDAQuantum,可以在一个系统中集成QPUm。、GPU、CPU和编程。许多量子硬件公司将CUDAQuantum集成到他们的平台上。

  美国通信巨头AT&T宣布与英伟达合作,利用英伟达整个AI平台改进运营,提高可持续性。AT&使用英伟达AI平台进行数据处理,改善服务排队,建立员工支持和评估的对话AI数字形象。

  04.

  推出新一代宇宙服务器

  引入生成式AI和模拟模拟更新

  为了增加NVIDIAOmniverseEnterprise基于NVIDIAOmniverseEnterprise的大规模数字孪生动力,英伟达推出了第三代OVX计算系统和新一代工作站。

  通过组合双CPU平台,第三代OVX服务器,BlueField-3DPU、L40GPU、两个ConnectX-7SmartNIC和NVIDIASpectrum以太网平台,带来了图形和AI性能的突破,可以加速大规模的数字孪生模拟等应用,从而提高运行效率和预测规划功能。

  在可视化、虚拟工作站和数据中心处理工作流程等方面,公司可以利用OVX性能进行合作。

  另外,新一代NVIDIARTX工作站RTX4000SFFAdaGeneration选择英伟达AdaLovelaceGPU、ConnectX-6DxSmartNIC和英特尔至强处理器。RTX5000Ada一代笔记本电脑GPU的最新发布,让专业人士可以随时随地浏览Omniverse和工业元宇宙的工作负荷。

  黄仁勋还宣布了NVIDIAOmniverse的更新,该平台用于构建和使用元宇宙,并加强了一系列生成式AI。、模拟相关功能的模拟,使开发者能够更容易地部署工业元宇宙的应用。

  平台即服务(PaaS)目前,NVIDIAOmniverseCloud已经向特定公司开放,使企业能够在其核心产品和业务流程中统一数字化。

  “从大型物理设施到手持消费品,每个人造物体总有一天会有一个数字孪生来建造、操作和优化物体。”黄仁勋说:“OmniverseCloud是一个从数字到物理的工业数字操作系统,它的出现正好赶上了新的电动汽车、电池和芯片工厂,价值数万亿美元。”

  英伟达选择微软Azure作为OmniverseCloud的第一个云服务提供商。OmniverseCloud,由NVIDIAOVX计算系统支持,将于今年下半年与微软Azure联合推出。公司可以浏览Omniverse软件应用的全堆栈套件和NVIDIAOVX基础设施,并享受Azure云服务的规模和安全性。

  AzureOmniverseCloud的新订阅服务,无论是连接3D设计工具加速汽车开发,还是构建车辆数字孪生工厂,还是运行闭环模拟,汽车团队都可以很容易地实现工作流程的数字化。

  在演讲过程中,老黄分享了一段视频,展示了亚马逊如何用英伟达Omniverse平台搭建一个完全逼真的数字孪生机器人仓库,以节省时间和金钱

  英伟达和宝马集团宣布扩大合作,为汽车制造商开设了第一家完全虚拟工厂。宝马集团在其全球生产网络中使用英伟达Omniverse平台,构建和运行工业元宇宙应用。

  另外,通过通用场景描述,英伟达和他的合作伙伴发布了全新的OmniverseConnections。(USD)框架连接更多的世界先进应用。

  05.

  结论:生成式AI引起了全球企业危机感

  老黄说:“生成式AI正在推动AI的快速应用,并重塑无数行业。”“我们正处于AI的位置。「iPhone时刻」,创业公司竞相打造颠覆性的产品和商业模式,而老牌企业则在寻找应对措施。生成式AI引发了全球企业制定AI战略的危机感。"

  从今天英伟达的一系列软硬件发布可以看出,英伟达对先进AI计算的支持已经从GPU覆盖。、DPU等硬件帮助企业加快建立定制的AI模型云服务,从而促进人类创造力的释放。

  这已经不是老黄第一次“跳预言家”了。英伟达的加速计算产品可以说是与AI产业发展共生共荣。英伟达不断为更大规模的AI模型培训提供更强的计算率基础,对AI培训和推理的前沿发展起到了重要的推动作用,蓬勃发展的AI热潮为英伟达带来了更广阔的市场和机遇。

  如今,生成式AI的商业前景几乎激励着每个行业重新构思自己的商业战略,实现这些战略所需的技术。英伟达正在积极与其合作伙伴行动,为AI应用提供更强大的计算平台,让更多的人从生成式AI等前沿应用的变革力量中受益。

你可能感兴趣的:(nvidia,人工智能,开发平台,嵌入式硬件,开发工具)