微软 Microsoft
中际旭创 / 新易盛 北美光模块核心大客户之一。FY26 Capex \(110-150B**(含 Stargate / OpenAI 算力承担),自研 Maia 200 推理 ASIC + Cobalt 100 Arm CPU + OpenAI / Anthropic / Nvidia 多生态绑定。**\)80B 未交付 Azure 订单 + 电力瓶颈——需求侧严重供不应求。
与 A 股供应商的关系
- 中际旭创:核心客户之一(25 年报客户结构披露的北美 6 大 CSP 之一:英伟达 / 谷歌 / 亚马逊 / Meta / 微软 / 思科)
- 新易盛:北美 CSP 全覆盖客户名单包含 Meta / 亚马逊 / Oracle / 英伟达 / 谷歌;微软具体导入状态新易盛深档未明确披露
- 光迅科技:未列入光迅 25 年前五大客户(光迅以字节 / 华为为主)
- 订单能见度:与北美其他 CSP 同步,已下达至 26 年底,部分 27 年规划开始沟通
AI 资本开支(FY26 持续高增)
| 财年 | Capex | YoY |
|---|---|---|
| FY24(截至 25-06) | ~$55.7B | — |
| FY25(截至 25-06) | ~$88.2B | +58% |
| FY26 季度跑率 | Q1 $34.9B / Q2 $37.5B | 单季创纪录 |
| FY26 全年指引 | $110-150B(含 Stargate / OpenAI 容量承担) | +25-70% |
| 长期 | 持续高位 | 受电力供应约束 |
关键约束:微软持有 $80B 未交付 Azure 订单——GPU 已到位但找不到足够电力,是行业供给侧最严重瓶颈。
FY26 Capex 结构:约 ⅔ 为短周期资产(GPU + CPU),⅓ 为长周期数据中心 / 电力 / 15-20 年融资租赁。
自研 ASIC / CPU 路线表
| 芯片 | 类型 | 工艺 / 进度 | 用途 |
|---|---|---|---|
| Cobalt 100 | Arm CPU(128 核 Neoverse N2 / 12 通道 DDR5) | 已部署 | Azure SQL / Teams 等内部产品 |
| Maia 100 | AI 训练 ASIC | 已部署(Ignite 发布) | 早期 Azure AI 内部 |
| Maia 200("Braga") | AI 推理 ASIC | 2026 量产(设计 / 集成迭代后延期至 26)/ TSMC 3nm / FP8/FP4 / 216GB HBM3e / 7TB/s / 272MB SRAM | 比现有系统性能/$ 提升 30% |
| Maia 二代 / Cobalt 二代 | 设计中 | 路线图 | 持续迭代 |
Maia 200 部署园区:Iowa(US Central)首发 → Phoenix(US West 3)次发 → 后续多区域扩展。用途:Azure AI Foundry / Microsoft 365 Copilot 等推理负载。
GPU 采购规模
- Nvidia GPU:Azure 主力训练算力(Blackwell / Rubin 同步采购)
- Vera Rubin 30,000 颗:与 Nscale 合作,在 Narvik(挪威北极圈)数据中心部署(原 OpenAI Stargate Norway 项目转入微软)
- AMD GPU:MI 系列采购(具体规模 WebSearch 未细化)
- OpenAI 容量承担:通过 Azure 直供 OpenAI 训练 + 推理(数千亿美元级长期合同)
数据中心扩张(具体园区 + GW)
| 项目 | 规模 | 状态 |
|---|---|---|
| Stargate 项目(OpenAI / SoftBank / Oracle / MSFT 联盟) | 10 GW / $500B 计划,已落实 ~7 GW / $400B+(含 Abilene 旗舰 + 5 新址 + CoreWeave) | 26 年加速建设 |
| Texas 数据中心(前 OpenAI / Oracle 项目) | 900 MW | 26-03 Microsoft 接手 |
| Norway Narvik(北极圈) | 30K Vera Rubin 颗规模 | 26-04 接管 |
| Iowa / Phoenix Maia 200 区域 | 多园区 | 26 年 Maia 200 部署 |
| Azure 全球新建(中东 / 欧洲 / 亚太 / 拉美) | 多 GW 级 | 持续 |
网络架构与光通信需求(Scale-up / Scale-out / Scale-across)
- Azure AI 训练集群:Hopper/Blackwell/Rubin + Maia 200 推理芯片混合部署
- Maia 200 机架架构:TSMC 3nm + FP8/FP4 + HBM3e —— 推理集群对低延迟 Scale-up 互连敏感(NPO 演进同步)
- OpenAI 训练集群:Stargate 多址超大规模 → Scale-across DCI 长距相干模块需求大
- 每 Maia 光模块价值量:FP8 推理负载 + 30% 性价比提升 → 推理基础设施密度上升直接拉动 800G/1.6T 可插拔需求
- 电力 + 水冷一体化:Stargate 园区采用先进冷却方案,间接影响 NPO/CPO 路径选型
重要合作伙伴
| 合作方 | 角色 |
|---|---|
| OpenAI | 战略级客户 + Stargate 联合发起方,Azure 长期算力承担方 |
| SoftBank / Oracle | Stargate 联合发起方(10 GW / $500B 计划) |
| TSMC | Maia 200(3nm) / Cobalt CPU 代工 |
| Nvidia | Hopper / Blackwell / Rubin GPU 主力供应商 |
| AMD | MI 系列 GPU 多元化 |
| Nscale | Norway Narvik Rubin 部署 neocloud 合作方 |
| Anthropic | Azure 多云客户(与 AWS 并行) |
| 博通 | 网络 ASIC(Tomahawk / Jericho)共用行业方案 |
投研意义
看多
- FY26 Capex $110-150B——单季 Q2 $37.5B 创纪录,AI 基础设施支出位居北美 CSP 前列
- $80B 未交付 Azure 订单——需求严重大于供给,长期能见度极强
- Maia 200 26 年量产 + 多区域部署——自研 ASIC 同步带来定制化光互连机会,可比 Meta MTIA / 谷歌 TPU 路径
- Stargate 10 GW / $500B——史上最大 AI 数据中心计划,光模块需求基数极大
- OpenAI / Anthropic 双重生态绑定——长期算力需求被锁定,订单可见度延伸到 28-30 年
- 中际旭创将微软列为北美 6 大 CSP 客户——稳定的供应关系(25 年前五大客户合计 75.98%)
看空
- 电力瓶颈是现实硬约束——$80B 未交付订单本质是电力供给不足,可能延后光模块出货节奏
- Maia 200 设计延期前科——Maia 100 → Maia 200 推迟到 26 年,自研 ASIC 量产节奏不稳
- Stargate 容量重新分配——OpenAI / Oracle 对 Norway / Texas 项目退出后由 MSFT 接手,反映 OpenAI 多云策略中 MSFT 份额可能波动
- OpenAI 多云去微软化——OpenAI 已绑定 Oracle / SoftBank / CoreWeave / AWS(Anthropic Trainium),单一 Azure 客户结构在弱化
- 自研 NPO/CPO 路径——若 Maia 系列绑定博通定制网络,可能减少标准可插拔光模块依赖
跟踪指标
| 指标 | 频率 | 信号意义 |
|---|---|---|
| 季度 Capex 实际值 | 季度 | FY26 $110-150B 兑现节奏 |
| $80B 未交付订单变化 | 季度 | 电力 / 光模块供给瓶颈是否缓解 |
| Maia 200 部署节奏(Iowa / Phoenix → 全球) | 半年 | 自研推理 ASIC 替代 GPU 程度 |
| Stargate 园区上线节奏(Abilene / 5 新址) | 半年 | 7 GW → 10 GW 兑现节奏 |
| OpenAI 多云去 MSFT 份额变化 | 半年 | Azure 在 OpenAI 算力组合中占比 |
| 1.6T 量产订单(中际旭创 / 新易盛对微软出货) | 季度 | 800G→1.6T 升级节奏 |
| 中际旭创对微软客户份额变化 | 半年 | 北美 6 大 CSP 客户结构稳定性 |
| Microsoft Maia 二代 / Cobalt 二代进展 | 半年 | 自研芯片代际接续 |