6 月 28 日消息,据路透社今日援引知情人士消息,OpenAI 开始租用谷歌的人工智能芯片,为 ChatGPT 和其他产品提供算力支持。
OpenAI 是英伟达 GPU 的最大客户之一,长期依赖后者 AI 芯片来训练模型及执行推理任务。据此前报道,本月早些时候有消息称 OpenAI 有意接入谷歌云服务,以应对日益增长的算力需求。
对谷歌而言,这项合作正值其扩大自研 Tensor 处理器(TPU)对外供货之际。此前 TPU 多用于内部项目,随后又开始向外部客户开放,并已吸引到包括苹果在内的大型科技公司,以及由前 OpenAI 高管创办的 Anthropic 和 Safe Superintelligence 等初创企业。
这也是 OpenAI 首次在关键任务中大规模采用非英伟达芯片,意味着其正在逐步摆脱对微软数据中心的依赖。据《The Information》报道,TPU 的使用有望降低算力成本,为 OpenAI 提供一种更具价格优势的替代方案。
OpenAI 希望通过租用谷歌云平台上的 TPU,降低 AI 推理运算的支出。不过,谷歌并未向 OpenAI 提供最强性能的 TPU。据《The Information》援引谷歌云员工说法,这些高阶芯片目前并不对竞争对手开放。(清源)