“这是一场开发者大会,不是一场发布会。”
虽然英伟达CEO黄仁勋一再强调这是一场技术大会,但是在大洋彼岸的圣何塞,GTC依然开出了演唱会的架势,人山人海,全场沸腾,多少人彻夜无眠,密切关注着这场人工智能领域的顶级行业盛会——3月18日举办的英伟达GTC大会。
GTC是英伟达一年一度规模最大的技术盛会。在今年的GTC舞台上,英伟达亮出了多个最新的人工智能重磅产品。如:
面向工业革命的Blackwell GPU、
面向人形机器人的Project GR00T、
专为大规模AI量身订制的全新网络交换机-X800系列、
面向自动驾驶汽车的下一代集中式计算平台NVIDIA DRIVE Thor,
以及生成式AI微服务……
这一系列的“王炸”套餐让我们充分意识到,英伟达的人工智能早已不再是实验室产品,它已经走向社会,走向工业,走向未来,开始深切地改变人们的生产和生活。
01
Blackwell平台成为
工业革命新引擎
发布会一开始,英伟达便亮出了“核弹”级AI产品Blackwell GPU。
Blackwell GPU架构搭载六项变革性的加速计算技术,能够在拥有高达10万亿参数的模型上实现AI训练和实时LLM推理,这些技术将助推数据处理、工程模拟、电子设计自动化、计算机辅助药物设计、量子计算和生成式AI等领域实现突破,这些都是NVIDIA眼中的新兴行业机遇。
“Blackwell GPU是推动新一轮工业革命的引擎。通过与全球最具活力的企业合作,我们将实现AI赋能各行各业的承诺。”黄仁勋表示。该平台可使世界各地的机构都能够在万亿参数的大语言模型(LLM)上构建和运行实时生成式AI,其成本和能耗较上一代产品降低96%以上。
这个新架构以纪念David Harold Blackwell命名,他不仅是一位专门研究博弈论和统计学的数学家,也是第一位入选美国国家科学院的黑人学者。这一新架构是继两年前推出的 NVIDIA Hopper™ 架构以来的全新架构。
此次发布会发布的超级芯片还有GB200。黄仁勋表示,与NVIDIA H100 Tensor Core GPU相比,GB200超级芯片在大语言模型推理工作负载方面的性能提升了高达30倍。
对于LLM推理工作负载,相较于同样数量的NVIDIA H100 Tensor Core GPU,GB200 NVL72最高可提供30倍的性能提升以及96%以上的成本和能耗降低。
02
发布新一代AI超级计算机
NVIDIA还发布了新一代AI超级计算机——搭载NVIDIA GB200 Grace Blackwell 超级芯片的NVIDIA DGX SuperPOD™。这台超级计算机可以用于处理万亿参数模型,能够保证超大规模生成式AI训练和推理工作负载的持续运行。
“NVIDIA DGX AI超级计算机是推进AI产业变革的工厂。新一代DGX SuperPOD集NVIDIA加速计算、网络和软件方面的最新进展于一体,能够帮助每一个企业、行业和国家完善并生成自己的AI。”黄仁勋表示。
全新DGX SuperPOD采用新型高效液冷机架级扩展架构,基于NVIDIA DGX GB200系统构建而成,在FP4精度下可提供11.5 exaflops 的AI超级计算性能和240TB的快速显存,且可通过增加机架来扩展性能。
Grace Blackwell架构的DGX SuperPOD由8个或以上的DGX GB200系统构建而成,这些系统通过NVIDIA Quantum InfiniBand网络连接,可扩展到数万个GB200超级芯片。用户可通过NVLink连接8个DGX GB200系统中的576块Blackwell GPU,从而获得海量共享显存空间,来赋能下一代AI模型。
03
发布人形机器人模型
Project GR00T
“开发通用人形机器人基础模型是当今AI领域中最令人兴奋的课题之一。世界各地的机器人技术领导者正在汇集各种赋能技术,致力于在人工通用机器人领域实现突破。”黄仁勋表示。
NVIDIA此次发布了人形机器人通用基础模型Project GR00T,旨在进一步推动其在机器人和具身智能方面的突破。GR00T驱动的机器人(代表通用机器人00技术)将能够理解自然语言,并通过观察人类行为来模仿动作——快速学习协调、灵活性和其它技能,以便导航、适应现实世界并与之互动。
NVIDIA还发布了一款基于NVIDIA Thor系统级芯片(SoC)的新型人形机器人计算机Jetson Thor,并对NVIDIA Isaac机器人平台进行了重大升级,包括生成式AI基础模型和仿真工具,以及AI工作流基础设施。
Jetson Thor是一个全新的计算平台,能够执行复杂的任务并安全、自然地与人和机器交互,具有针对性能、功耗和尺寸优化的模块化架构。其采用Blackwell架构,可提供每秒800万亿次8位浮点运算AI性能,以运行GR00T等多模态生成式AI模型。
NVIDIA正在为领先的人形机器人公司开发一个综合的AI平台,如1X Technologies、Agility Robotics、Apptronik、波士顿动力公司、Figure AI、傅利叶智能、Sanctuary AI、宇树科技和小鹏鹏行等。
训练具身智能模型需要海量的真实数据和合成数据。新的Isaac Lab是一个GPU加速、性能优化的轻量级应用,基于Isaac Sim而构建,专门用于运行数千个用于机器人学习的并行仿真。NVIDIA还发布了Isaac Manipulator 和Isaac Perceptor等一系列机器人预训练模型、库和参考硬件。
04
全新交换机X800系列
全面优化基础设施
NVIDIA还发布了专为大规模AI量身订制的全新网络交换机-X800系列。
NVIDIA Quantum-X800 InfiniBand网络和NVIDIA Spectrum™-X800以太网络是全球首批高达800Gb/s端到端吞吐量的网络平台,将计算和AI工作负载的网络性能提升到了一个新的水平,与其配套软件强强联手可进一步加速各种数据中心中的AI、云、数据处理和高性能计算(HPC)应用,包括基于最新的Blackwell架构产品的数据中心。
“NVIDIA网络平台是AI超级计算基础设施实现大规模可扩展的核心。基于NVIDIA X800交换机的端到端网络平台,使新型AI基础设施轻松运行万亿参数级生成式AI业务。”NVIDIA网络高级副总裁Gilad Shainer表示。
Quantum-X800平台包含了NVIDIA Quantum Q3400交换机和NVIDIA ConnectXⓇ-8 SuperNIC,二者互连达到了业界领先的端到端800Gb/s吞吐量,交换带宽容量较上一代产品提高了5倍,网络计算能力更是凭借SHARP™技术(SHARPv4)提高了9倍,达到了14.4Tflops。
Spectrum-X800平台为AI云和企业级基础设施带来优化的网络性能。借助800Gb/s的Spectrum SN5600交换机和NVIDIA BlueField-3 SuperNIC,Spectrum-X800平台为多租户生成式AI云和大型企业级用户提供各种至关重要的先进功能。
NVIDIA还提供面向万亿参数级AI模型性能优化的网络加速通信库、软件开发套件和管理软件等全套软件方案。
05
DRIVE Thor
改变自动驾驶的未来
自动驾驶是未来重要的产业发展方向。此次英伟达发布了NVIDIA DRIVE Thor,用于安全可靠的自动驾驶汽车的下一代集中式计算平台,可将多项智能功能整合在单个系统中,从而提高了效率,降低了整体系统成本。
作为DRIVE Orin的后续产品,DRIVE Thor可提供丰富的座舱功能,以及安全可靠的高度自动化驾驶和无人驾驶功能,并将所有功能整合至同一个集中式平台上。这款新一代自动驾驶汽车(AV)平台将搭载专为Transformer、大语言模型(LLM)和生成式AI工作负载而打造的全新NVIDIA Blackwell架构。
多家头部电动汽车制造商在GTC上宣布其搭载DRIVE Thor的下一代AI车型。比亚迪正在将与NVIDIA的长期协作从车端延伸到云端。除了在DRIVE Thor上构建下一代电动车型外,比亚迪还计划将NVIDIA的AI基础设施用于云端AI开发和训练技术,并使用NVIDIA Isaac™与NVIDIA Omniverse™平台来开发用于虚拟工厂规划和零售配置器的工具与应用。
除乘用车外,DRIVE Thor还能够满足卡车、自动驾驶出租车、配送车等其他细分领域的不同需求。在这些领域中,高性能计算和AI对于确保安全、可靠的驾驶操作至关重要。
DRIVE Thor预计最早将于明年开始量产,并且将使用具有生成式AI引擎等前沿功能的全新NVIDIA Blackwell架构。DRIVE Thor的性能高达1000 TFLOPS,有助于保证自动驾驶汽车的安全可靠。
06
Omniverse Cloud API
为数字孪生提供助力
黄仁勋认为,未来所有制造出来的产品都将拥有数字孪生。Omniverse是一个可以构建并操作物理真实的数字孪生的操作系统。Omniverse和生成式AI都是将价值高达50万亿美元的重工业市场进行数字化所需的基础技术。
为此NVIDIA宣布将以API形式提供Omniverse™ Cloud,将该全球领先的工业数字孪生应用和工作流创建平台的覆盖范围扩展至整个软件制造商生态系统。借助五个全新Omniverse Cloud应用编程接口(API),开发者能够轻松地将Omniverse的核心技术直接集成到现有的数字孪生设计与自动化软件应用中,或是集成到用于测试和验证机器人或自动驾驶汽车等自主机器的仿真工作流中。
一些全球大型工业软件制造商正在将Omniverse Cloud API加入到其软件组合中,包括Ansys、Cadence、达索系统旗下3DEXCITE品牌、Hexagon、微软、罗克韦尔自动化、西门子和Trimble等。西门子正在其西门子Xcelerator平台中采用Omniverse Cloud API,首先采用的是领先的云端产品生命周期管理(PLM)软件Teamcenter X。
“Omniverse cloud即将连接到苹果的Vision Pro,这会是前所未有的体验。所有的CAD工具以及设计工具都将集成在一起,并连接到Omniverse,工作人员可以拥有这种类型的工作流程,这将是难以置信的体验。”黄仁勋解释。
08
推出生成式AI微服务
“成熟的企业平台坐拥数据金矿,这些数据可以转化为生成式AI助手。我们与合作伙伴生态系统一起创建的这些容器化AI微服务,是各行业企业成为AI公司的基石。”NVIDIA创始人兼首席执行官黄仁勋表示。
为此,NVIDIA推出数十项企业级生成式AI微服务,企业可以利用这些微服务在自己的平台上创建和部署定制应用,同时保留对知识产权的完整所有权和控制权。
NVIDIA还推出二十多项全新微服务,使全球医疗企业能够在任何地点和任何云上充分利用生成式AI的最新进展。
全新NVIDIA医疗微服务套件包含经过优化的NVIDIA NIM™ AI模型和工作流,并提供行业标准应用编程接口(API),可用于创建和部署云原生应用。它们提供先进的医学影像、自然语言和语音识别以及数字生物学生成、预测和模拟功能。
此外,NVIDIA加速的软件开发套件和工具,包括Parabricks®、MONAI、NeMo™、Riva、Metropolis,现已通过NVIDIA CUDA-X™ 微服务提供访问,以加速药物研发、医学影像、基因组学分析等医疗工作流。
09
拥抱量子计算推出
云量子计算机模拟微服务
量子计算是下一轮计算变革的前沿领域,为此NVIDIA推出一项云服务,旨在帮助研究人员和开发人员在化学、生物学、材料科学等关键科学领域的量子计算研究中取得突破。
NVIDIA量子云基于NVIDIA开源CUDA-Q量子计算平台——部署量子处理器(QPU)的公司有四分之三都在使用该平台。其作为一项微服务,首次支持用户在云端构建并测试新的量子算法和应用,包括支持量子-经典混合算法编程的功能强大的模拟器和工具等。
NVIDIA的量子计算生态系统目前已有160多家合作伙伴。Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure等领先的云服务提供商,以及 IQM Quantum Computers、OQC、ORCA Computing、qBraid 和 Quantinuum 等量子领域的领先企业,都正在将量子云集成到自己的产品中。
在大会上,英伟达也展示了自己的朋友圈,在这张图里,除了互联网企业外,众多工业企业也开始人工智能的全方位合作。在改变社会方面,人工智能展现出了越来越大的市场前景。面向工业领域的人工智能,英伟达迈出了划时代的一步,此前英伟达的季度营收已经超过了半导体领军者英特尔,未来这个即将用AI吞噬世界的怪兽将如何用技术改变世界,我们将拭目以待。
END
责编/版式:王禹蓉
审校:王 涛 梅雅鑫
监制:刘启诚
【通信世界新媒体矩阵】
央视频 | 微软MSN | 视频号 | 微博 | 今日头条 | 百家号 | 网易号 | 搜狐 | 腾讯新闻
新浪看点 | 雪球号 | 抖音 | 快手 | 爱奇艺 | 知乎 | 哔哩哔哩 | 咪咕视频 | CSDN | 36氪
【新媒体团队】
监制|刘启诚
审校|王涛 梅雅鑫
编辑|王禹蓉 盖贝贝
视频剪辑|黄杨洋 卢瑞旭
运营|林嵩
点分享
点收藏
点在看
点点赞