NVIDIA新世代AI GPU B200...
您的位置: 首页  » 资讯中心  » 电子资讯  » NVIDIA新世代A...
NVIDIA新世代AI GPU B200亮相 台积电4奈米打造
 
      NVIDIA继现行H100与2024年第2季问世的升级版H200后, AI GPU大军将再增新成员,最快下半年将推出B100、B200,采用全新Blackwell架构、台积电4奈米制程。

NVIDIA执行长黄仁勋手执的2款GPU芯片,左方为新世代Blackwell,右方则为目前的Hopper。法新社

      NVIDIA同时发布GB200 Grace Blackwell超级芯片,透过 900GB/s 超低功耗NVLink芯片到芯片互连技术,将2个B200 GPU 与Grace CPU连接起来。NVIDIA表示,合作伙伴将可在兆级参数大型语言模型上构建和运行实时生成式AI(generative AI),而成本和能耗比其前身最低可达25 倍。

NVIDIA GB200 Grace Blackwell。NVIDIA

      NVIDIA执行长黄仁勋表示,三十年来,NVIDIA一直在追求加速运算,目标是实现深度学习和AI等变革性突破。生成式AI是这个时代决定性技术。Blackwell GPU是推动这场新工业革命的引擎。目前计划采用 Blackwell 的众多合作伙伴包括亚马逊(Amazon)、戴尔(Dell)、Google、Meta、微软(Microsoft)、OpenAI、甲骨文(Oracle)、Tesla和xAI。

      Blackwell GPU 架构具有6项用于加速运算的变革性技术,这将有助于在资料处理、工程模拟、电子设计自动化、计算机辅助药物设计、量子运算和生成式AI方面实现突破,这些对NVIDIA而言,都是新兴产业机会。

      值得一提的是,黄仁勋也多次提到台积电与台服务器等相关供应链的紧密合作,同时在以最新AI GPU架构模拟台风路径预测时,更以台湾为标的。


以新AIGPU架构进行的台风路径运算,地理标的即为台湾。法新社

      此外,近期不断传出Google等大厂加速研发ASIC芯片,以摆脱NVIDIA掌控。在GTC大会上,黄仁勋特别强调与众多国际大厂的紧密合作,包括Google、亚马逊AWS、Meta、微软、Tesla及OpenAI等。

      Alphabet 和 Google 执行长 Sundar Pichai 表示,很幸运能够与 NVIDIA 建立长期合作伙伴关系,并期待将 Blackwell GPU的突破性功能带给整个 Google 的云端客户和团队,包括Google DeepMind。其中,Tesla和xAI执行长 Elon Musk就表示:「目前没有什么比NVIDIA 硬件更好的AI硬件了。」

Blackwell架构重要技术

      Blackwell的6项革命性技术共同支援AI训练和实时大型语言模型推论,模型可扩展至10兆个参数。其中包括:

      世界上最强大的芯片:采用Blackwell 架构的B200 GPU配备2,080亿个晶体管,采用台积电客制化4奈米制程制造,2倍光罩尺寸GPU裸晶透过10 TB/s的芯片到芯片互连连接成单个、统一GPU。

      第二代 Transformer 引擎:透过新的微张量扩展(micro-tensor scaling)支援以及NVIDIA的先进动态范围管理算法,整合到NVIDIA TensorRT-LLM和NeMo Megatron框架中,Blackwell将利用新的4位浮点AI推论能力支援加倍地运算和模型尺寸。

      第五代NVLink:为了加速多兆参数和混合专家(mixture-of-experts) AI模型的效能,最新版本的NVIDIA NVLink提供每个GPU 1.8TB/s的双向吞吐量,确保在最复杂的大型语言模型中高达576个GPU之间实现无缝的高速沟通。

      RAS引擎:Blackwell 驱动的GPU包含1个专用引擎,可实现可靠性、可用性和可服务性。 此外,Blackwell 架构还增加芯片级功能,利用基于AI的预防性维护来运行诊断和预测可靠性问题。 以最大化系统正常运行时间,并增强大规模AI部署的弹性,使其连续数周甚至数月不间断地运行,并降低营运成本。

      安全AI:先进的机密运算功能可在不影响效能的情况下保护AI模型和客户资料,并支援新的本机界面加密协定,这对于医疗保健和金融服务等隐私敏感产业至关重要。

      解压缩引擎:专用解压缩引擎支援最新格式,加速数据库查询,以提供资料分析和资料科学的最高效能。

      NVIDIA GB200 Grace Blackwell超级芯片透过900GB/s 超低功耗NVLink芯片到芯片互连技术,将2个 NVIDIA B200 Tensor Core GPU与NVIDIA Grace CPU连接起来。



新世代的Blackwell将提供更强力的AI运算效能。法新社

 
      为了获得最高的AI效能,GB200 驱动的系统可以与最新宣布的Quantum-X800 InfiniBand和Spectrum-X800乙太网络平台连接,这些平台可提供速度高达800Gb/s的先进网络。

      GB200是NVIDIA GB200 NVL72的关键元件,NVIDIA GB200 NVL72 是一种多节点、液冷、机架规模系统,适用于运算最密集的工作负载,结合 36 个 Grace Blackwell 超级芯片,其中包括透过第五代NVLink 互连的72个Blackwell GPU和36个Grace CPU。

      此外,GB200 NVL72 还包括 NVIDIA BlueField-3 资料处理单元,可在超大规模 AI 云端中实现云端网络加速、可组合储存、零信任安全性和 GPU 运算弹性。 与NVIDIA H100 Tensor Core GPU相比,GB200 NVL72可提供高达30倍的大型语言模型推论工作负载效能,并将成本和能源消耗降低多达25倍。 该平台充当单一GPU,具有1.4 exaflops的AI效能和30TB的快速存储器,是最新 DGX SuperPOD 的构建块。

      NVIDIA提供HGX B200,此服务器主机板能透过NVLink连接8个B200 GPU,以支援基于x86的生成式 AI 平台。HGX B200 透过NVIDIA Quantum-2 InfiniBand和Spectrum-X乙太网络平台,支援高达 400Gb/s 的网络速度。

 

图为NVIDIA GB200 NVL72。NVIDIA

Blackwell客户一次全亮相

      合作伙伴将从2024年稍晚开始提供基于Blackwell的产品。亚马逊AWS、Google Cloud、微软Azure 和Oracle Cloud Infrastructure将成为首批提供Blackwell驱动执行个体的云端服务供应商。NVIDIA云端伙伴计划的公司包括Applied Digital、CoreWeave、Crusoe、IBM Cloud和Lambda也同样将提供相应的产品。

 
 
Google Cloud为NVIDIA Blackwell架构的首批客户之一。NVIDIA
 
      主权AI云端也将提供基于Blackwell的云端服务和基础设施,包括Indosat Ooredoo Hutchinson、Nebius、Nexgen Cloud、Oracle EU Sovereign Cloud、Oracle 美国、英国和澳洲政府云端、Scaleway、Singtel、Northern Data Group 的Taiga Cloud、 Yotta资料服务的 Shakti Cloud 和杨忠礼电力国际。

      GB200也将在 NVIDIA DGX Cloud上提供,这是一个与云端服务供应商共同设计的 AI 平台,让企业开发人员能够专门存取建置和部署先进生成式AI模型所需的基础设施和软件。亚马逊 AWS、Google Cloud和 Oracle Cloud Infrastructure计划在2024年稍后托管基于NVIDIA Grace Blackwell的新执行个体。

      思科(HPE)、戴尔、慧与(HPE)、联想和美超微(SuperMicro)预计将提供基于Blackwell产品的各种服务器,还有华擎旗下永擎、华硕、Eviden、鸿海、技嘉、英业达、和硕、云达、纬创、纬颖等。

      此外,包括Ansys、Cadence和Synopsys等全球工程模拟公司与持续增加的软件制造商,将使用基于Blackwell的处理器来加速用于设计和模拟电气、机械和制造系统及零件的软件。

Blackwell架构命名由来

      NVIDIA全新AI GPU架构以David Harold Blackwell命名,纪念这位专门研究赛局理论和统计学的数学家,他也是第一位入选美国国家科学院的黑人学者。此架构继承2年前推出的NVIDIA Hopper架构。

 

NVIDIA执行长黄仁勋亲自发表新一代Blackwell架构。法新社




 
来自:陈玉娟