
据两位直接知情人士透露,正与美满电子科技(Marvell)洽谈合作,研发两款全新芯片,旨在更高效地运行人工智能模型。其中一款为内存处理单元,设计用于配合谷歌张量处理单元(TPU)协同工作;另一款则是专为运行 AI 模型打造的全新 TPU 芯片。
这些举措凸显出,用于支撑智能体等商用产品的 AI 推理芯片需求正急剧攀升。英伟达在 3 月的 GTC 大会上发布了一款旨在提升推理任务效率的芯片,名为语言处理单元(LPU),该芯片基于英伟达以 200 亿美元从初创公司 Groq 获得授权的技术打造。
谷歌此前也曾向美满电子采购过数据中心芯片,但均为现货标准产品;而本次洽谈旨在开发专为谷歌定制的半导体芯片。这一动向再次表明,谷歌希望摆脱长期以来作为其 TPU 唯一设计合作伙伴的博通,实现合作方多元化。
据《信息》(The Information)2023 年报道,谷歌曾考虑将美满电子替换为博通,作为其数据中心内连接服务器与以太网交换机的网络接口芯片供应商。
一位谷歌员工透露,谷歌原本就计划研发新型推理芯片,而在英伟达推出 LPU 后,相关工作进一步加速。美满电子正是 Groq 第一代 LPU 的芯片设计合作伙伴,这使其具备设计推理芯片的成熟经验。
Funda AI 此前曾报道过谷歌与美满电子就全新 TPU 展开洽谈的消息。
谷歌此前已向美满电子采购过 CXL 控制器芯片,据两位谷歌员工介绍,这类芯片用于管理服务器在数据中心间的内存共享。双方过往的合作经历,也让谷歌对美满电子与其联合设计更多新芯片的能力抱有信心。
两位知情人士称,谷歌全新的内存处理单元将与 TPU 协同工作,根据算力与内存需求与 TPU 分担 AI 运算任务。双方计划最快于明年完成该内存处理单元的设计,随后交付试产。
两人还补充道,谷歌计划生产近 200 万颗内存处理单元,不过由于洽谈仍处于初期阶段,这一数字可能发生变动。作为对比,预计谷歌 2027 年将生产约 600 万颗 TPU。目前尚不清楚全新 TPU 的设计工作何时完成,以及谷歌计划的量产规模。该内存处理单元可与现有 TPU 兼容使用。
谷歌目前的芯片均由生产,新款芯片将由台积电还是其他厂商代工仍未可知。
多年来,谷歌仅在自有数据中心内部使用 TPU,支撑搜索、YouTube 与 Gemini 模型等业务,并仅向谷歌云客户开放使用。这一局面在去年被打破,谷歌开始向客户出租 TPU 用于非谷歌数据中心,直接挑战英伟达在 AI 芯片领域的主导地位。谷歌 TPU 也已赢得 Anthropic、元平台(Meta)与等客户的青睐。
专用推理芯片的兴起,源于 AI 企业陆续推出智能体等更复杂的产品,这类产品所需算力远超聊天机器人等传统 AI 应用。
不过,并非所有推理任务都具有相同特性。生成回复的部分环节需要大量算力,而另一些环节则受限于芯片在内存中读写数据的速度。针对不同任务使用不同类型的推理芯片,而非仅依靠单一处理器完成所有运算,已成为 AI 企业提升效率、降低成本的关键方式。
例如,OpenAI 近期达成协议,将向英伟达与 Groq 的竞争对手 Cerebras 采购超过 200 亿美元的推理芯片,同时也在使用其他企业的推理芯片。OpenAI 还在与博通联合研发自研推理芯片。
美满电子主营数据中心所用的标准网络、存储与光互联芯片设计,目前为客户定制芯片的业务规模持续扩大,已成为其增长最快的业务板块。
自 2023 年起,谷歌便试图摆脱对博通的依赖,主要原因是博通收费高昂。博通会对每一颗量产的 TPU 收取费用,随着 TPU 需求激增,谷歌向博通支付的费用也水涨船高。
去年,谷歌引入台湾企业联发科参与 TPU 芯片的设计与生产,但博通仍是谷歌核心的芯片设计合作伙伴。本月早些时候,博通与谷歌签署新协议,将在 2031 年前为谷歌下一代 AI 数据中心机柜开发并供应定制化 TPU 与网络组件,这表明博通在谷歌芯片业务中仍占据核心地位。





还没有评论,来说两句吧...