3月22日,在英伟达举办的年度GTC开发者大会上,其CEO黄仁勋发表了名为《切勿错过AI的决定性时刻》(Don’t Miss This Defining Moment in AI)的演讲,在长达78分钟的视频中,他四次用“iPhone时刻”来形容AI当下的发展,并称“这将是我们迄今为止最重要的一次GTC大会”。会上不仅发布了可为ChatGPT提速10倍的专用GPU芯片,还表示将赋能芯片制造。

打开网易新闻 查看更多图片

ChatGPT专用GPU来了 处理速度提升十倍

针对算力需求巨大的ChatGPT,英伟达发布了NVIDIA H100 NVL,这是一种具有94GB内存和加速Transformer引擎的大语言模型(LLM)专用解决方案,配备了双GPU NVLINK的PCIE H100 GPU。

黄仁勋表示,当前唯一可以实际处理ChatGPT的GPU是英伟达HGX A100(OpenAI便是使用A100 GPU训练和运行ChatGPT),而H100 GPU的处理速度比A100 GPU快十倍,可以将大语言模型的处理成本降低一个数量级。

此外,为了加速生成式AI开发及部署,英伟达宣布推出四款全新推理GPU——L4 Tensor Core GPU、L40 GPU、H100 NVL GPU、Grace Hopper超级芯片(见下图),分别擅长AI视频、图像生成、ChatGPT等大型语言模型的推理加速、推荐系统和大型语言模型的AI数据库。

以云服务打造新商业模式

打开网易新闻 查看更多图片

值得注意的是,英伟达如今力推AI云服务,曾其比作当今AI系统的“操作系统”。在会上,英伟达宣布与谷歌云、微软Azure、甲骨文云联手推出DGX(AI超级计算机)云服务,加速企业创建大模型和生成式AI的云服务NVIDIA AI Foundations等,并宣布与日本三菱联合打造了日本第一台用于加速药研的生成式AI超级计算机。

以软件变革芯片制造业 计算光刻提速40倍

光刻是芯片制造过程中最复杂、最昂贵、最关键的环节。会上,英伟达宣布了一项改变光刻行业的应用——通过光刻计算库cuLitho,将计算光刻加速40倍以上,大大提高芯片代工厂在这一工序上的效率,为2nm以及更先进制程的到来做好准备。

新时代的来临

18世纪 蒸汽时代

19世纪 内燃机时代

20世纪 信息时代

21世纪 AI时代?