Bitget App
Trade smarter
行情交易合约跟单策略理财Web3

英伟达 AI 盛会 GTC 揭幕,最强 AI 芯片 Blackwell 来了

行业观察行业观察2024/04/18 07:03
作者:行业观察
英伟达称,Blackwell 的成本和能耗较前代改善 25 倍,是全球最强大芯片。


撰文:李丹

来源:华尔街见闻


号称今年全球头号人工智能(AI)领域开发者大会的英伟达 2024 GTC AI 大会于美东时间 3 月 18 日周一拉开帷幕。


今年是英伟达时隔五年首次让年度 GTC 重回线下,也是此前分析认为英伟达要「拿出点真家伙」的 AI 盛会。


当地时间周一下午,英伟达创始人兼 CEO 黄仁勋在美国加州圣何塞 SAP 中心进行主题为「面向开发者的 1#AI 峰会」(1# AI Conference for Developers)演讲。



Blackwell 成本和能耗较前代改善 25 倍 全球最强大芯片 台积电 4 nm 制程


黄仁勋介绍了运行 AI 模型的新一代芯片和软件。英伟达正式推出名为 Blackwell 的新一代 AI 图形处理器(GPU),预计将在今年晚些时候发货。


Blackwell 平台能够在万亿参数级的大型语言模型(LLM)上构建和运行实时生成式 AI,而成本和能耗比前代改善 25 倍。



英伟达称,Blackwell 拥有六项革命性的技术,可以支持多达 10 万亿参数的模型进行 AI 训练和实时 LLM 推理:


  • 全球最强大的芯片:Blackwell 架构 GPU 由 2080 亿个晶体管组成,采用量身定制的台积电 4 纳米(nm)工艺制造,两个 reticle 极限 GPU 裸片将 10 TB/ 秒的芯片到芯片链路连接成单个统一的 GPU 。
  • 第二代 Transformer 引擎:结合了 Blackwell Tensor Core 技术和 TensorRT-LLM 和 NeMo Megatron 框架中的 英伟达先进动态范围管理算法,Blackwell 将通过新的 4 位浮点 AI 支持双倍的计算和模型大小推理能力。
  • 第五代 NVLink:为提高数万亿参数和混合专家 AI 模型的性能,最新一代英伟达 NVLink 为每个 GPU 提供了突破性的 1.8TB/s 双向吞吐量,确保最复杂 LLM 之间多达 576 个 GPU 之间的无缝高速通信。
  • RAS 引擎 :Blackwell 支持的 GPU 包含一个专用引擎,实现可靠性、可用性和服务性。 此外,Blackwell 架构还增加了芯片级功能,利用基于 AI 的预防性维护进行诊断和预测可靠性问题。这可以最大限度地延长系统正常运行时间,并提高大部署规模 AI 的弹性,使其能连续运行数周甚至数月,并降低运营成本。
  • 安全人工智能:先进的机密计算功能可在不影响性能的情况下保护 AI 模型和客户数据,并支持新的本机接口加密协议,这对于医疗保健和金融服务等隐私敏感行业至关重要。
  • 解压缩引擎:专用解压缩引擎支持最新格式,加快数据库查询,提供数据分析和数据科学的最高性能。 未来几年,在企业每年花费数百亿美元的数据处理方面,将越来越多地由 GPU 加速。


GB200 NVL72 推理性能较 H100 提升高达 30 倍


英伟达同时介绍超级芯片 GB200 Grace Blackwell Superchip,它通过 900GB/s 的超低功耗 NVLink,将两个 B200 Tensor Core GPU 连接到 NVIDIA Grace CPU。


为了获得最高的 AI 性能,GB200 驱动的系统可以与周一同时宣布的英伟达 Quantum-X800 InfiniBand 和 Spectrum-X800 以太网平台连接,这些平台可提供速度高达 800Gb/s 的高级网络。



GB200 是英伟达 GB200 NVL72 的关键组件,GB200 NVL72 是一种多节点、液冷、机架规模系统,适用于计算最密集的工作负载。 它结合了 36 个 Grace Blackwell 超级芯片,其中包括通过第五代 NVLink 互连的 72 个 Blackwell GPU 和 36 个 Grace CPU。GB200 NVL72 还包括 NVIDIA BlueField®-3 数据处理单元,可在超大规模 AI 云中实现云网络加速、可组合存储、零信任安全性和 GPU 计算弹性。


相比数量的 H100 Tensor Core GPU 相比,GB200 NVL72 对于 LLM 推理工作负载的性能提升高达 30 倍,并将成本和能耗降低高达 25 倍。


GB200 NVL72 平台充当单个 GPU 具有 1.4 exaflops 的 AI 性能和 30TB 的快速内存,是最新 DGX SuperPOD 的构建块。


英伟达推出服务器主板 HGX B200,它通过 NVLink 连接八个 B200 GPU,以支持基于 x86 的生成式 AI 平台。 HGX B200 通过英伟达 Quantum-2 InfiniBand 和 Spectrum-X 以太网网络平台支持高达 400Gb/s 的网络速度。



亚马逊、微软、谷歌和甲骨文在首批提供 Blackwell 支持的云服务商之列


Blackwell 芯片将成为亚马逊、微软、谷歌这类全球最大数据中心运营商部署新电脑和其他产品的基础。基于 Blackwell 的产品将在今年晚些时候问世。


英伟达称,亚马逊云 AWS、谷歌云、微软云 Azure 和甲骨文云基础设施 Oracle Cloud Infrastructure 将成为首批提供 Blackwell 支持实例的云服务提供商,英伟达云合作伙伴计划的成员公司 Applied Digital、CoreWeave、Crusoe、IBM Cloud 和 Lambda 也将成为首批提供 Blackwell 实例的云服务提供商。 


面向主权的 Sovereign AI 云还将提供基于 Blackwell 的云服务和基础设施,包括 Indosat Ooredoo Hutchinson、Nebius、Nexgen Cloud、Oracle 欧盟主权云、Oracle 美国、英国和澳大利亚政府云、Scaleway、Singtel、Northern Data Group 的 Taiga Cloud、 Yotta Data Services 的 Shakti Cloud 和 YTL Power International。


黄仁勋说,「三十年来,我们一直在追求加速计算,目标是实现深度学习和 AI 这类方面的变革性突破。生成式 AI 是我们这个时代的决定性技术。 Blackwell 是推动这场新工业革命的引擎。 通过与世界上最具活力的公司合作,我们将实现 AI 在各行各业的承诺。」


英伟达在公告通稿中列举了料将采用 Blackwell 的一些组织,比如微软、亚马逊、谷歌、Meta、戴尔、OpenAI、甲骨文、马斯克领导的特斯拉和 xAI。黄仁勋介绍了包括这些公司在内的更多合作伙伴。



AI 项目 Project GR00T 助力人形机器人


黄仁勋在演讲中披露,英伟达推出了助力未来人形机器人的多模态 AI 项目 Project GR00T。该项目采用通用基础模型,让人形机器人能够将文本、语音、视频甚至现场演示作为输入那日,并对其进行处理,采取特定的通用操作。


Project GR00T 由英伟达 Isaac 机器人平台工具的帮助下开发的,其中包括用于强化学习的新 Isaac 实验室。


黄仁勋称,由 Project GR00T 平台提供支持的机器人将被设计为,通过观察人类行为来理解自然语言并模仿动作,使它们能快速学习协调性、灵活性和其他技能,从而适应现实世界并在与之互动,绝对不会产生机器人起义。


黄仁勋说:


「为通用人形机器人构建基本模型是当今 AI 领域能解决的最令人兴奋的一个问题。将它能实现的技术融合在一起,世界各地领先的机器人专家就可以在人工通用机器人领域取得巨大飞跃。」



 


台积电和 Synopsys 采用英伟达光刻技术


黄仁勋还提到,台积电和 Synopsys 将采用英伟达计算光刻技术,起用英伟达的计算光刻平台 CuLitho。


台积电和 Synopsys 已经整合英伟达的 Culitho W 软件。他们将用英伟达的下一代 Blackwell GPU 来实现 AI 和 HPC 应用。



新软件 NIM 让用户更容易利用已有英伟达 GPU 进行 AI 推理


英伟达同时宣布推出名为英伟达 NIM 的推理微服务,它是优化的云原生微服务,旨在缩短生成式 AI 模型的上市时间并简化它们在云、数据中心和 GPU 加速工作站上的部署。


英伟达 NIM 通过使用行业标准 API 抽象化 AI 模型开发和生产包装的复杂性来扩展开发人员库。它是英伟达 AI Enterprise 的一部分,为开发 AI 驱动的企业应用程序和在生产中部署 AI 模型提供了简化的路径。


NIM 让用户使用旧版英伟达 GPU 进行推理或运行 AI 软件的过程变得更容易,并允许企业客户继续用他们已有的英伟达 GPU。推理所需的算力比最初训练新的 AI 模型的少。 NIM 让企业能运行自己的 AI 模型,而不是从 OpenAI 等公司购买 AI 的成果。


基于英伟达服务器的客户只要订阅英伟达 AI Enterprise 就可使用 NIM,每个 GPU 每年的许可费用为 4500 美元。


英伟达将与微软和 Hugging Face 等 AI 公司合作,确保他们的 AI 模型能够在所有兼容的英伟达芯片上运行。使用 NIM 的开发者可以在自己的服务器或基于云的 英伟达服务器上高效地运行模型,而无需冗长的配置过程。


评论称,NIM 这种软件让部署 AI 变得更容易,不但为英伟达创收,而且给客户提供了又一个坚持使用英伟达芯片的理由。

0

免责声明:文章中的所有内容仅代表作者的观点,与本平台无关。用户不应以本文作为投资决策的参考。

PoolX:质押赚新币
CEC、QTLX、GDV等热门新币火热进行中!
立即质押!

你也可能喜欢

PeerDAS 将如何改进以太坊的数据可用性?

为了确保数据的高效管理和安全验证,以太坊从 DA 演进到 DAS,最终引入 PeerDAS。

ChainFeeds2024/09/19 09:48