admin 管理员组

文章数量: 1103806

英伟达GTC

参会的企业名单

英伟达发展史

1993 年,英伟达成立。

2006 年,CUDA是一个革命性的计算模型。

2012 年,Alex Net AI和 CUDA 首次接触。

2016 年,发明了一种全新类型的计算机,我们称之为 DGX1,170 teraflops,八个 GPU 首次连接在一起,交付了第一台 DGX1 给一家位于旧金山的初创公司,名为 OpenAI。

2017 年,Transformer 到来。

2022 年,ChatGPT 捕获了世界的想象力。

2023 年,生成式 AI 浮现,新的行业开始形成。

使用仿真工具来创造产品,是为了扩大计算规模。希望能够以完全保真、完全数字化的方式模拟我们所做的整个产品。从本质上讲,我们称之为数字孪生。

ANSYS 为世界制造工程仿真,以 Cuda 加速 ANSYS 生态系统,将 ANSYS 连接到 Omniverse 数字孪生。

Cadence 构建了世界上基本的 EDA 和 SDA 工具。我们也使用 Cadence,通过这三家公司,ANSYS、Synopsys 和 Cadence,我们基本上一起构建了 Nvidia。

Blackwell架构GPU

滑动查看更多→

训练这些越来越大的transformer模型,我们也需要更强的算力。

Blackwell

架构GPU

登场

老黄展示Grace-Blackwell平台(两个Blackwell GPU、四个die与一个Grace Cpu连接在一起)。

GB200将两个B200 Blackwell GPU与一个基于Arm的Grace CPU进行配对。新芯片拥有2080亿个晶体管,所有这些晶体管几乎同时访问与芯片连接的内存。

GB200新系统提升体现在,要训练一个1.8万亿参数量的GPT模型,需要8000张Hopper GPU,消耗15兆瓦的电力,连续跑上90天。

如果使用Blackwell GPU,只需要2000张,同样跑90天只要消耗四分之一的电力。同时生成Token的成本也会随之降低。

AI 微服务 NIM

NIM微服务提供了AI生产容器,用于部署来自NVIDIA、A121、Adept、Cohere、Getty Images和Shutterstock的模型,以及来自Google、Hugging Face、Meta、Microsoft、Mistral AI和Stability AI的开放模型。

Robot

老黄宣布一项名为GR00T的项目,旨在进一步推动英伟达在机器人和具身智能的突破性工作。由GR00T驱动的机器人可以理解自然语言,并通过观察人类动作来模拟运动。

创建了一个名为 Isaac Reinforcement Learning Gym 的健身房,允许类人机器人学习如何适应物理世界。然后是一个令人难以置信的计算机,这个计算机将进入一个机器人或类人机器人,称为 Thor。它被设计为变换器引擎,将其中的几个组合成一个视频。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。原始发表:2024-03-19,如有侵权请联系 cloudcommunity@tencent 删除连接模型芯片机器人计算机

本文标签: 英伟达GTC