鞭牛士报道,4月24日消息,据外电报道,英伟达Nvidia 正在收购 Run:ai,这是一家总部位于特拉维夫的公司,该公司使开发人员和运营团队能够更轻松地管理和优化其 AI 硬件基础设施,收购金额未公开。

Ctech今天早上早些时候报道称,两家公司正在进行高级谈判,英伟达可能会为 Run:ai 支付超过 10 亿美元。显然,谈判进展顺利。

一位知情人士告诉 TechCrunch,确切的价格为 7 亿美元。

Nvidia 表示,将继续“在相同的商业模式下提供 Run:ai 的产品,并投资 Run:ai 的产品路线图,作为 Nvidia DGX Cloud AI 平台的一部分,该平台使企业客户能够访问他们可以使用的计算基础设施和软件。用于训练生成型和其他形式的人工智能模型。

Nvidia 表示,Nvidia DGX 服务器和工作站以及 DGX Cloud 客户还将获得 Run:ai 的 AI 工作负载功能,特别是对于跨多个数据中心位置运行的生成式 AI 部署。

Run:ai 首席执行官 Omri Geller 在一份声明中表示:自 2020 年以来,Run:ai 一直与 Nvidia 保持密切合作,我们都热衷于帮助客户充分利用他们的基础设施。我们很高兴加入 Nvidia,并期待继续我们的旅程。

几年前,盖勒与 Ronen Dar 共同创立了 Run:ai,此前两人在特拉维夫大学一起学习,师从 Run:ai 的第三位联合创始人 Meir Feder 教授。 Geller、Dar 和 Feder 寻求构建一个平台,可以将人工智能模型“分解”成跨硬件并行运行的碎片,无论是在本地、公共云还是边缘。

虽然 Run:AI 几乎没有直接竞争对手,但其他公司正在将动态硬件分配的概念应用于人工智能工作负载。例如,Grid.ai 提供的软件允许数据科学家跨 GPU、处理器等并行训练 AI 模型。

但在其发展的相对早期,Run:AI 成功建立了财富 500 强公司的庞大客户群,这反过来又吸引了风险投资。

在收购之前,Run:ai 已从 Insight Partners、Tiger Global、S Capital 和 TLV Partners 等支持者那里筹集了 1.18 亿美元的资金。

Nvidia DGX Cloud 副总裁 Alexis Bjorlin 在一篇博文中指出,客户的 AI 部署变得越来越复杂,公司越来越希望更有效地利用其 AI 计算资源。

Clear ML最近的一项调查发现,公司在 2024 年扩展 AI 方面面临的最大挑战是计算限制(在可用性和成本方面),其次是基础设施问题。

「管理和编排生成式人工智能、推荐系统、搜索引擎和其他工作负载需要复杂的调度,以优化系统级别和底层基础设施的性能,”他说。 “Nvidia 的加速计算平台和 Run:ai 平台将继续支持广泛的第三方解决方案生态系统,为客户提供选择和灵活性。 Nvidia 与 Run:ai 合作,将使客户能够拥有一个可以在任何地方访问 GPU 解决方案的单一结构。」

Run:ai 是 Nvidia 自 2019 年 3 月以 69 亿美元收购 Mellanox 以来最大的收购之一。