Anthropic 提高 Claude 使用额度,并与 SpaceX 扩充算力

整理 Anthropic 通过 SpaceX 算力合作提高 Claude Code 和 Claude API 使用额度的公告,以及这背后反映出的 AI 公司算力竞争。

Anthropic 在 2026 年 5 月 6 日宣布,提高 Claude Code 和 Claude API 的部分使用额度,同时披露与 SpaceX 达成新的算力合作。

这条消息表面上是“额度变多了”,但真正值得看的,是模型公司正在把产品体验、订阅价格、API 限流和基础设施供应绑在一起。对重度用户来说,算力不是抽象概念,而是能不能跑更多 Claude Code 任务、能不能少排队、能不能稳定调用 Opus 模型。

Claude Code 和 API 额度怎么变

Anthropic 这次公布了三项变化,并表示都从公告当天开始生效。

第一,Claude Code 面向 Pro、Max、Team 和按席位计费的 Enterprise 方案,把五小时窗口内的使用限制提高到原来的两倍。

这对 Claude Code 的重度用户很直接。过去如果在短时间内让 Claude Code 连续读代码、改代码、跑任务,很容易碰到五小时额度限制。额度翻倍后,同一段工作时间内能承载更多连续开发任务。

第二,Pro 和 Max 账户不再受 Claude Code 高峰时段额度下调影响。

这点比数字本身更重要。很多 AI 工具最影响体验的,不是平时额度,而是高峰期突然变慢、变少、变不稳定。取消高峰时段的限制下调,说明 Anthropic 想让付费用户在忙时也有更可预期的体验。

第三,Anthropic 提高了 Claude Opus 模型的 API rate limits。原文中相关数值以表格图片展示,核心结论是 Opus API 的调用上限被明显上调。

从开发者角度看,Opus 一直是更贵、更重、能力也更强的模型。提高 Opus API 限额,意味着 Anthropic 不只想让用户在聊天界面里多用 Claude,也希望更多企业和开发者把 Opus 放进真实业务流程。

SpaceX 算力合作的分量

额度提高背后,是新的算力供给。

Anthropic 表示,已经与 SpaceX 签署协议,将使用 SpaceX 的 Colossus 1 数据中心全部算力容量。这项合作会在一个月内带来超过 300 兆瓦的新容量,对应超过 22 万块 NVIDIA GPU。

这组数字说明两件事。

第一,前沿模型公司的瓶颈仍然是算力。模型能力、上下文长度、工具调用、代码代理、多模态和企业场景都会消耗大量推理资源。用户越多、任务越复杂,平台越需要稳定的大规模 GPU 供给。

第二,AI 基础设施竞争已经进入超大规模阶段。过去大家更关注模型榜单、产品功能和价格;现在,谁能更快拿到电力、机房、网络和 GPU,谁就更有机会把模型能力变成稳定产品。

Anthropic 还提到,这次 SpaceX 合作会直接改善 Claude Pro 和 Claude Max 订阅用户的容量体验。也就是说,它不是只服务训练集群,也会进入面向用户的推理供给。

Anthropic 的算力版图

SpaceX 不是 Anthropic 唯一的算力合作。

Anthropic 在公告中同时回顾了几项已经公布的基础设施安排:

  • 与 Amazon 的最高 5GW 协议,其中包括到 2026 年底前接近 1GW 的新增容量。
  • 与 Google 和 Broadcom 的 5GW 协议,预计从 2027 年开始逐步上线。
  • 与 Microsoft 和 NVIDIA 的战略合作,其中包括 300 亿美元 Azure 容量。
  • 通过 Fluidstack 在美国 AI 基础设施上投入 500 亿美元。

这些合作的共同点,是 Anthropic 不把自己绑定在单一硬件或单一云平台上。原文明确提到,Claude 的训练和运行会使用 AWS Trainium、Google TPU 和 NVIDIA GPU。

这种多供应商路线有现实意义。单靠一家云厂商,很难长期满足前沿模型训练和大规模推理的峰值需求。多平台布局虽然会增加工程复杂度,但能降低供应链和容量风险。

为什么额度提升本质上是算力问题

AI 产品的“额度”不是普通互联网产品里的会员权益文案,它背后对应真实成本。

Claude Code 每次读取仓库、生成补丁、执行长任务,都会消耗推理资源。API 用户如果把 Opus 接入客服、金融分析、代码审查、文档处理或 agent 工作流,也会产生持续调用。对平台来说,放宽限额就意味着要有更多稳定算力兜底。

所以这次公告的逻辑很清楚:先说明用户能获得更高限制,再解释这些限制为什么现在可以提高。新增的 SpaceX 容量,以及此前和 Amazon、Google、Microsoft、NVIDIA、Fluidstack 的合作,都是为了支撑更重的使用场景。

这也解释了为什么 AI 产品会越来越强调不同计划之间的分层。免费用户、Pro 用户、Max 用户、Team 用户、Enterprise 用户,对算力的消耗和付费能力不同。模型公司必须把额度、优先级、模型访问和基础设施成本重新匹配起来。

轨道 AI 算力的信号

公告里还有一个很有未来感的细节:Anthropic 表示,作为这项协议的一部分,它也表达了与 SpaceX 合作开发多吉瓦级轨道 AI 算力容量的兴趣。

这并不等于轨道数据中心马上会成为现实产品。更稳妥的理解是,前沿 AI 公司已经开始把未来算力供给想象到地面数据中心之外。

AI 数据中心受电力、土地、冷却、网络和监管限制。随着训练和推理需求继续扩大,行业会探索更多基础设施形态。轨道算力现在听起来很远,但它出现在 Anthropic 的正式公告里,本身就是一个信号:算力竞争的想象空间正在被拉大。

国际化和合规需求

Anthropic 还提到,企业客户,尤其是金融、医疗和政府等受监管行业,越来越需要本地化基础设施来满足合规和数据驻留要求。

这意味着模型公司不能只在美国集中建设数据中心。企业 AI 要进入真实业务,就必须处理区域合规、数据驻留、供应链安全、电力成本和当地社区关系。Anthropic 表示,与 Amazon 的合作中已经包括亚洲和欧洲的新增推理能力。

它还强调,会优先选择法律和监管框架支持大规模投资、供应链安全的民主国家,并探索把美国数据中心电价承诺扩展到其他司法辖区。

这部分内容说明,AI 基础设施不只是技术问题,也会越来越像能源、制造业和地缘经济问题。

简短判断

Anthropic 这次公告可以概括为一句话:Claude 的额度提高,是因为背后有新的大规模算力供给。

对用户来说,短期影响是 Claude Code 五小时限制提高、Pro 和 Max 高峰期限制减少、Opus API 调用空间变大。对行业来说,更重要的是模型公司竞争正在从“谁的模型更强”扩展到“谁能持续拿到足够多、足够稳定、足够合规的算力”。

未来 AI 产品的体验差距,很可能不只来自模型参数和产品设计,也来自基础设施能力。谁能把电力、GPU、数据中心、云合作和区域合规组织起来,谁就更有机会把前沿模型变成可长期使用的服务。

相关链接

记录并分享
使用 Hugo 构建
主题 StackJimmy 设计