OpenAI 正在深入硬件领域,开始生产自己的人工智能芯片。该公司通过与 博通的多年合作关系获得了这一能力。计划雄心勃勃:合作伙伴将共同创建并随后部署专用加速器处理器。到 2030 年,计划部署的基础设施的总功率容量将达到惊人的 10 吉瓦。
合作的实际分工很明确:OpenAI 的工程师将负责芯片设计,而博通将负责制造和供应所需的网络设备。首批配备新处理器的试点机架预计将在 2026 年下半年安装在数据中心。
开发自己的处理器使 OpenAI 能够将其从构建大型语言模型中学到的原则和优化直接融入硅片中。这种方法承诺显著的性能提升,并可能导致“更智能”和更具成本效益的系统的创建。谷歌和 Meta 等主要科技巨头多年来一直在开发自己的芯片,努力控制整个 AI 堆栈——从硅片到成品。现在,OpenAI 也加入了他们的行列。
博通的交易只是 OpenAI 更广泛战略的一部分,旨在提升其计算能力。该公司之前曾宣布与 NVIDIA 和 AMD 的类似合作关系,尽管不如这次深入 合作。OpenAI 领导层的雄心远大:在接下来的八年里,该公司计划将其总容量提高到 250 吉瓦。
因此,人工智能基础设施市场正在不断重塑。取而代之的是对单一主导供应商的依赖,算法的创造者们正越来越多地将硬件的开发掌握在自己手中。