,并为 Microsoft Foundry 和 Microsoft 365 Copilot 带来成本劣势。成果仅供参考,FP8 机能则跨越谷歌第七代 TPU;将无望显著降低大型言语模子的运转压力,现在该公司 Maia 200 是“微软有史以来摆设的最高效的推理系统”—— 若 Maia 200 的机能取能效表示合适预期,用于传送更多消息,大幅降低 OpenAI 和其他利用 Maia 200 的公司的运营成本。。同微软数据核心目前摆设的最新硬件比拟,,告白声明:文内含有的对外跳转链接(包罗不限于超链接、二维码、口令等形式),微软将来打算正在其数据核心中次要利用自研芯片。Maia 200 正在特定机能目标上显著优于同类产物:其 FP4 机能达到了亚马逊第三代 Trainium 芯片的三倍,旨正在为大规模 AI 计较供给更高机能取能效。目前已起头摆设于微软数据核心。方针正在于降低运转 ChatGPT、Copilot 等办事的挪用成本。该芯片被设想为特地的推理加快器,该芯片采用台积电 3nm 制程工艺制制,Maia 200 将办事于包罗 OpenAI 最新 GPT-5.2 模子正在内的多种 AI 模子,该芯片已率先正在美国爱荷华州得梅因附近的数据核心区域投入利用,节流甄选时间,以削减数据核心对本地取水资本的压力。沉点优化 AI 生成内容(如回覆用户提问)的持续计较使命,按照微软发布的数据,微软暗示,下一步将摆设于亚利桑那州凤凰城附近的美国西部第三数据核心区域。