甲骨文公司周二宣布,计划在其甲骨文云基础设施(OCI)中部署数万个 Nvidia 的顶级 A100 和 H100 计算 GPU。
A100 和 H100 GPU 将提供给甲骨文的云客户,用于他们由 Nvidia 的 AI 软件支持的 AI 工作负载,该交易的具体条款仍处于保密状态。
Nvidia 和甲骨文之间的新合作将使所有企业客户都能获得 AI 训练、计算机视觉、数据处理、深度学习推理和模拟,他们将不必投入巨额资金,用 Nvidia 昂贵的计算 GPU 部署他们的数据中心。甲骨文已经为 OCI 客户提供了访问高性能计算实例的机会,现在将为他们提供各种 AI 能力。
甲骨文 OCI 的企业客户将能够访问 Nvidia 的所有 AI 平台,包括以下内容:
AI 企业--一套可用于 AI 模型训练、计算视觉、对话式 AI、数据处理、推荐系统和模拟等的引擎。
RAPIDS--在 OCI 数据流完全管理的 Apache Spark 服务上对 Apache Spark 数据处理进行加速,包括像 BM.GPU.GM4.8 这样带有 A100 Tensor Core GPU 的裸机实例。
Clara --医学成像、基因组学、自然语言处理和药物发现(即将推出)。
Nvidia 的 A100 和 H100 计算 GPU 售价昂贵,即使是上一代的 A100 计算 GPU 也要 1 万到 1.5 万美元(约 10.8 万元人民币),取决于具体的配置,而下一代的 H100 产品自然会更贵。因此,尽管甲骨文不太可能以零售价购买 Nvidia 的计算 GPU,但总价肯定低不了,预计 Nvidia 和甲骨文之间的交易价值数亿美元同。