扫码加入

  • 正文
  • 相关推荐
申请入驻 产业图谱

AWS 要重新加速了?OpenAI“多云化”,可能是云计算格局变化的开始

10小时前
163
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

*内容仅为呈现不同市场观点与研究视角,并不意味着本公众号对文中观点结论认可。

“我们正在疯狂扩张 AWS。”

在摩根士丹利 TMT 大会上,英伟达 CEO 黄仁勋(Jensen Huang)这句看似随口的话,可能是过去几个月里云计算行业最重要的信号之一。

这句话的表层含义很直接:作为全球 AI 算力最核心的供应商,英伟达观察到 OpenAI 正在大幅增加在亚马逊云科技(AWS)上的资源投入。但这句话的深层含义远不止于此。它揭示了一个正在发生的结构性转变:AI 算力需求,正在从“单一云平台”走向“多云平台”。

过去两年,市场普遍认为微软 Azure 已经锁定了 AI 时代的云计算红利。然而,如果这一趋势持续,全球云计算市场的增长结构可能会发生一次被严重低估的变化。而其中最大的潜在受益者,很可能是曾经被认为在 AI 浪潮中稍显迟缓的 Amazon Web Services(AWS)。

从"Azure 独占”到“多云算力”:AI 基础设施的第一道裂缝

过去两年,AI 基础设施的叙事几乎被一个“铁三角”组合垄断:OpenAI + Azure + NVIDIA

在微软对 OpenAI 投入超过 130 亿美元之后,双方达成了深度的排他性合作。OpenAI 的训练与推理算力几乎完全运行在微软 Azure 的专属超级计算机上。这种深度绑定让 Azure 在过去两年成为 AI 云计算红利最大的受益者。2024 至 2025 年间,微软多次在财报中披露,AI 服务贡献了 Azure 超过 7 个百分点的额外增长,资本市场也因此给予了微软极高的估值溢价。

但这种结构存在一个天然的物理与商业瓶颈:单一云平台,很难承载整个 AI 时代的指数级算力需求。

随着模型规模的不断扩大,训练成本和推理调用量正在呈现非线性的增长。据行业估算,GPT-4 级别模型的单次训练成本已达到数亿美元,而大模型的推理请求量每年更是以 10 倍级的速度扩张。在这种情况下,算力供应迅速成为瓶颈。无论是电力供应、数据中心空间,还是高端 GPU 的交付周期,单一云厂商都难以在短时间内无限扩容。

更重要的是,对于像 OpenAI 这样的头部 AI 公司而言,将命运完全寄托在单一云厂商身上,意味着巨大的“供应商锁定”风险。一旦 Azure 出现服务中断,或者在议价权上占据绝对主导,OpenAI 的业务连续性将面临威胁。

这也是为什么,越来越多 AI 公司开始主动采用 Multi-cloud Strategy(多云策略)。从黄仁勋的表态来看,OpenAI 已经开始把部分算力需求扩展到 AWS。这意味着 AI 云市场第一次出现了基础设施层面的“分流”。这不仅是 OpenAI 的战术调整,更是整个行业对“单一云依赖”的一次集体修正。当 AI 巨头开始寻求第二甚至第三算力来源时,拥有最成熟基础设施和最大容量储备的 AWS,自然成为了首选。

AWS 的 AI 飞轮:OpenAI、Anthropic 与推理经济

如果说 Azure 在 AI 时代的第一阶段赢在“训练算力”的独占性,那么 AWS 可能在第二阶段押注的是“推理经济”(Inference Economy)。

这里面有两个关键变量,正在重塑 AWS 的增长逻辑。

第一个变量,是 OpenAI 的算力扩张。当模型规模不断扩大,且应用场景从 C 端聊天机器人向 B 端企业应用渗透时,AI 公司往往会采用跨云部署。一方面是为了获得更多 GPU 资源以应对峰值需求,另一方面是为了降低平台依赖风险,保持议价能力。这对 AWS 来说,意味着一个新的可能性:OpenAI 的部分 GPU 集群,正在进入 AWS。即便只是承接推理流量,对于 AWS 而言,也是巨大的收入增量。

而另一个更关键的变量,其实是 Anthropic。

与 OpenAI 和微软的复杂关系不同,Anthropic 从一开始就与 Amazon 建立了深度且清晰的战略合作关系。2023 年以来,Amazon 已向 Anthropic 投资 80 亿美元以上,并计划进一步追加投资。Claude 系列模型的基础设施,大量运行在 AWS 上,并通过 Amazon Bedrock 平台向企业客户开放。

这背后的商业逻辑其实非常清晰:AI 训练是一次性的大生意,而 AI 推理才是长期的现金流。

每一次模型调用,都意味着不仅仅是一次 GPU 计算。它背后关联着 API 调用、数据库读写、对象存储、网络带宽传输以及安全服务。也就是说,推理越多,云收入越稳定,且涉及的云服务品类越丰富。

如果 Claude、OpenAI 以及其他运行在 AWS 上的模型持续增长,AWS 将不仅卖 GPU 算力,还会卖整套云基础设施服务。这种“全家桶”式的收入结构,比单纯出租算力具有更高的粘性和利润率。这也是为什么很多投资者开始重新审视一个问题:AWS 的增长周期,可能还没有结束。在训练阶段,市场关注的是谁有最多的 H100;但在推理阶段,市场关注的是谁的生态系统最能支撑大规模、低延迟、高并发的应用落地。在这方面,AWS 积累十年的企业级服务能力,构成了其新的护城河。

Agentic AI:真正放大云计算需求的“下一阶段”

更大的变化,可能来自 Agentic AI(代理智能)。

过去两年,大多数 AI 产品仍然停留在“问答工具”阶段。用户输入一个问题,模型返回一段文本。这种模式对云资源的消耗相对单一,主要集中在 GPU 推理上。

但随着 AI Agent 的兴起,模型开始从“回答问题”转向“执行任务”。一个典型的 AI Agent 任务可能包含:多轮模型推理、自主规划、数据库访问、第三方 API 调用、后台服务执行以及长期记忆存储。

换句话说,AI 不再只是消耗 GPU。它会同时拉动 CPU、存储、数据库、网络以及整个云服务生态。

例如,一个用于自动化财务分析的 AI Agent,它需要读取存储在 S3 上的报表,调用数据库查询历史数据,使用模型进行分析,最后将结果写入 DynamoDB 并通过 SNS 发送通知。在这个过程中,GPU 计算可能只占成本的一部分,大量的云资源消耗发生在数据流转和逻辑执行上。

这对云厂商来说意味着什么?意味着 AI 不是一个单纯的算力生意,而是一个平台生意。

过去几年,市场一直在讨论:AI 是否会压缩云厂商利润,因为 GPU 太贵,且部分推理可能在边缘端完成。但如果 Agentic AI 成为主流,情况可能恰恰相反。因为每一个 AI Agent,本质上都像是一个全天候运行的软件系统。它持续消耗云资源,持续产生云收入。

这正是 AWS 最擅长的领域。AWS 拥有最丰富的云服务品类(超过 200 种),从服务器less 计算到托管数据库,从消息队列到身份认证。当 AI 从“对话框”变成“操作系统”,AWS 这种提供全方位基础设施的云平台,其价值将被重新放大。Agentic AI 越复杂,对云原生服务的依赖就越深,AWS 的护城河就越宽。

结语:从算力军备到生态长跑

在过去两年,AI 基础设施的叙事几乎完全围绕一个问题展开:谁能拿到最多 GPU?

但黄仁勋的那句话,暗示着一个新的阶段。AI 算力不再只是 GPU 竞争,它正在变成云平台竞争。

当 AI 从训练走向推理、从工具走向 Agent,云计算市场真正的增长周期,可能才刚刚开始。这不再是单纯的硬件军备竞赛,而是关于稳定性、生态系统、成本控制以及多云架构能力的综合较量。

对于投资者而言,视角的转变至关重要。我们不应再仅仅盯着英伟达的显卡出货量,而应关注云厂商如何将 AI 流量转化为持久的平台收入。在这场新的竞赛中,AWS 很可能会凭借其深厚的基础设施积淀和多云策略的红利,重新回到舞台的中心。AI 的浪潮没有退去,它只是换了一种更务实、更持久的方式,继续推动云计算的下一轮增长。

相关推荐

登录即可解锁
  • 海量技术文章
  • 设计资源下载
  • 产业链客户资源
  • 写文章/发需求
立即登录

美股研究社,一个专注研究美股的平台,专业的每股投资人都在这。想了解美国股市行情、美股开户、美股资讯、美股公司;想获得一手美股重磅信息;想加入美股交流社群,敬请加入我们吧!