“AI次贷危机”初现端倪:GitHub Copilot转向按量计费,撕开了”补贴换增长”的遮羞布

 “AI次贷危机”初现端倪:GitHub Copilot转向按量计费,撕开了"补贴换增长"的遮羞布

article.author.display_name
许超


AI经济学并不成立,著名科技评论家 Ed Zitron认为AI订阅模式本质是欺骗,掩盖Anthropic用户付1美元,公司倒贴13.5-31.5美元的真实成本。更危险的是,甲骨文CEO埃里森的身家命运,正押注在萨姆·阿尔特曼能否四年内凭空创造8520亿美元——一场击鼓传花的游戏,正逼近终局。
微软近日宣布GitHub Copilot将于2026年6月转向基于用量的计费模式 。这一转变撕开了生成式AI行业“补贴换增长”的假象。

著名科技评论家 Ed Zitron认为,AI订阅模式从一开始就是一种欺骗,旨在掩盖生成式AI的真实成本以获取用户 。随着微软、Anthropic 等公司转向按量计费,用户将不得不直面昂贵的真实开支,而整个AI泡沫可能因此破裂 。

对于甲骨文CEO拉里·埃里森(Larry Ellison)来说,他的未来现在取决于萨姆·阿尔特曼(Sam Altman)能否在四年内筹集到8520亿美元 。如果失败,甲骨文的股价大跌将引发连锁的保证金追缴,彻底葬送其财富帝国 。

一、 补贴时代的终结:Copilot 告别“全家桶”
GitHub Copilot 用户收到了确认:从2026年6月1日起,所有计划将转向按量计费(usage-based pricing) 。

计费逻辑巨变:微软不再提供固定数量的“请求”,而是根据模型消耗的实际代币(tokens)收费 。

实质性涨价:原本每月19美元的订阅费将直接转化为19美元的代币额度 。

告别补贴:据《华尔街日报》2023 年报道,微软平均每位用户每月亏损20美元,部分重度用户甚至导致公司亏损 80 美元 。

微软将此举包装为“迈向可持续发展的 Copilot 业务” ,但本质上是因为 AI 推理成本过高,导致传统的月费模式已无法维系 。

二、 “次贷 AI 危机”:破碎的经济模型
Ed Zitron 认为,一场类似次贷危机的风险正在 AI 行业酝酿 。

1. 错误的“优步”类比

生成式 AI 的订阅模式与优步(Uber)截然不同 。

优步模式:亏损源于营销和补贴,但并不补贴司机的汽油费 。

AI 模式:相当于优步收 20 美元月费允许你跑 100 趟长途,却要为每加仑 150 美元的油价买单 。

2. 惊人的真实用量成本

单次请求成本:有用户估算,一次包含 6 万个代币上下文的“溢价请求”实际价值约 11 美元 。

开发者开支:Anthropic 估计,使用 Claude Code 的开发者平均每天花费 13 至 30 美元,这意味着每位员工每年的代币开销可能高达 7560 美元 。

三、 数据中心:深陷债务的“碎钞机”
Ed Zitron表示,人工智能数据中心的建设与运营成本正变得不可理喻 。

建设高昂:每兆瓦(MW)容量的成本约为 1400 万美元,其中大部分用于英伟达 GPU 。

微薄的利润:一个 100MW 的数据中心,在 100% 租用率下毛利率仅为 16.7% 。

债务炸弹:如果考虑购买 GPU 的 6 年期资产抵押贷款,在开始偿还本金后,数据中心的毛利率将变为负 40% 。

四、 甲骨文与 OpenAI 的“死亡螺旋”
甲骨文(Oracle)正将其全部未来押注在为 OpenAI 建设的“星门(Stargate)”项目上 。

项目规模:1.2GW 园区,总成本约 528 亿美元 。

过度依赖:该项目的资金完全来源于数据中心自身的预期现金流,而 OpenAI 是其唯一的希望 。

疯狂的对赌:为了覆盖“星门”的建设成本,OpenAI 必须在 4 年内通过营收或融资筹集到 8520 亿美元 。

预警信号:OpenAI 首席财务官 Sarah Friar 已表达担忧,称如果收入增长不够快,公司可能无法支付未来的计算合同,且公司账目尚未准备好满足上市披露标准 。

以下为文章全文、由AI辅助翻译:

GitHub Copilot 定价变更与“次贷 AI”危机
昨天上午,GitHub Copilot用户得到了我一周前报道过的消息的确认——即所有 GitHub Copilot 计划都将于2026年6月1日转为按量计费模式 。

微软现在将根据用户所使用模型的实际成本收费,而不是向用户提供固定数量的“请求”,微软称之为“……向所有用户提供可持续、可靠的Copilot业务和体验迈出的重要一步” 。

用户改为获得他们在 GitHub Copilot订阅上花费的等额度(例如:在每月 19 美元的计划中获得价值19美元的代币额度) 。

翻译一下:“我们不能再继续补贴 GitHub Copilot 用户了,否则 Amy Hood(微软 CFO)就要开始拿棒球棍打人了” 。

无论如何,公告本身是一个引人入胜的预演,展示了这些价格变动将如何被重新包装 :

Copilot不再是它一年前的那个产品了。

它已经从一个编辑器内的助手演变成了一个具备代理能力(agentic)的平台,能够运行长期的、多步编码会话,使用最新模型,并跨整个代码库进行迭代。

代理化(agentic)的使用正成为默认方式,它带来了显著更高的计算和推理需求 。

今天,一个简短的聊天问题和一个长达数小时的自主编码会话可能会消耗用户同样的费用 。

GitHub已经吸收了这种使用背后大部分不断升级的推理成本,但当前的溢价请求模式已不再可持续 。

按量计费修复了这一点 。它更好地使定价与实际使用相一致,帮助我们维持长期的服务可靠性,并减少了限制重度用户的需求 。

你看,并不是微软一直在补贴近两百万人的计算成本,而是 AI 已经变得如此强大、有力且复杂,以至于它基本上变成了一个不同的产品!

虽然 Copilot 可能“不再是它一年前的那个产品”,但底层的经济错位几乎没有改变:即微软允许用户连续三年每月烧掉超过其订阅成本的代币 。

根据《华尔街日报》2023 年 10 月的报道 :

个人每月为 AI 助手支付 10 美元 。

据一位熟悉数据的人士透露,在2023年前几个月,该公司平均每位用户每月亏损超过 20 美元,其中一些用户每月给公司造成的成本高达 80 美元 。

自然地,GitHub Copilot 用户正在反抗,称该产品“已死”且“被完全毁掉” 。

而我在两年前的《次贷AI危机》中就预言了这一点 :

我假设一种次贷AI危机正在酝酿,几乎整个科技行业都买入了一项以极高折扣售卖、由大科技公司高度中心化并补贴的技术 。

在某个时间点,生成式AI令人难以置信的、有毒的烧钱速度会追上他们,这反过来会导致价格上涨,或者公司发布具有极高费率的新产品和功能——比如 Salesforce 的“Agentforce”产品那令人震惊的每对话 2 美元的费率——这将使即使是有预算可烧的坚定企业客户也无法证明这笔支出的合理性 。

那一天终于到来了,因为你使用的每一个AI服务都补贴了计算成本,且每一个服务都因此在亏损。

当你支付访问AI初创公司服务的费用时——这当然包括OpenAI和Anthropic——你支付的是月费,例如 Anthropic的Claude是每月20美元、100美元或200 美元,Perplexity 是每月 20 美元或 200 美元,或者是OpenAI每月8美元、20美元或200美元的订阅 。

在某些企业用例中,你会获得特定工作单元的“积分”,例如 Lovable 在其每月 25 美元的订阅中允许用户获得“100个月度积分”,以及25 美元(截止到 2026 年第一季度末)的云托管费,积分可在月度间结转 。

当你使用这些服务时,相关公司随后会向AI实验室支付访问AI模型的费用,要么按每百万代币的费率,要么支付给任何租给他们 GPU 以运行模型的云供应商 。

一个代币基本上是3/4个单词。

作为用户,你不会感觉到代币消耗,只感觉到输入和输出的过程。

AI实验室通过使用“代币”或“消息”或带有百分比仪表的5小时速率限制来混淆服务成本,而你作为用户,并不真正知道这一切到底花了多少钱。

在后端,AI初创公司正在挥霍现金。

直到最近,Anthropic仍允许你每支付1美元的订阅费就烧掉超过8美元的计算成本 。OpenAI也是如此,尽管很难衡量具体数额 。

AI 初创公司和超大规模企业假设,他们能够通过补贴、亏损的产品吸引足够多的人进门,让他们对服务产生足够的依赖,以至于一旦企业上调价格,他们也会拒绝改变。

他们还假设代币的成本会随时间推移而下降,而实际发生的情况是——虽然某些模型的定价可能有所下降,但新的“推理”模型烧掉的代币要多得多,这意味着推理成本随着时间的推移反而变得更高了 。

这两个假设都是错误的,因为月度订阅模式对于任何连接到大语言模型(LLM)的服务来说都不合理 。

生成式人工智能的核心经济模式已然失效
不妨这样想。当优步( 不,这和优步完全不同 )开始大幅提高车费时,其背后的经济逻辑并未改变,乘客和司机所面临的经济状况也依然如故——乘客为乘车付费,司机因载客获得报酬。

司机们依然需要支付汽油费、车险费、地方政府可能强制要求的各类许可证费用,以及与车辆相关的任何融资成本,而这些费用并未得到优步的补贴。优步的巨额亏损源于补贴、无休止的营销开支,以及在无人驾驶汽车等项目上注定失败的研发投入。

生成式人工智能订阅服务与优步截然不同
为了说明人工智能定价失衡的严重程度,我想请大家设想一个平行时空,在那里的优步采用了截然不同的商业模式。

生成式人工智能的订阅模式,就像是优步(Uber)向用户收取每月 20 美元的费用,即可享受100次任意距离(不超过100英里)的乘车服务,而且汽油价格为每加仑150美元, 并且由优步承担油费因为有人坚持认为石油总有一天会便宜到无需计价的地步.

优步最终决定向用户收取月费以提供叫车服务,并按实际油耗向用户收费。

用户原本每月只需支付20美元即可享受100次乘车服务,如今却要先支付20美元才能叫到司机,再支付26美元才能完成10英里的行程。可以想象,用户难免会有些不满。

虽然这听起来有些夸张,但实际上,这恰如其分地比喻了生成式人工智能行业,尤其是 GitHub Copilot 当前所发生的情况。

GitHub Copilot 之前的定价方案允许每月进行300次高级请求,以及使用 GPT-5 mini 等模型进行“无限次聊天请求”。

据微软所述,每次此类请求(即“...任何你要求 Copilot 为你做某事的交互”, 而更昂贵的模型会消耗更多请求。在基于请求的系统后期,例如 Claude Opus 4.6 会消耗三个高级请求。 当你的高级请求用完后,Copilot 会允许你在当月剩余时间内不限次数地使用这些较低成本的模型。

其实情况并非一直如此。 直到2025年5月 ,微软一直为用户提供对模型的无限访问权限,而且即便在那时,用户也对产品存在任何限制感到愤怒。

微软——和其他人工智能公司一样——通过销售一种不可持续的服务来欺骗客户,因为以月度订阅的形式销售基于大型语言模型(LLM)的服务,从根本上来说是毫无道理的。

如果你想知道在基于代币的计费模式下,服务费用大概是多少, GitHub Copilot Subreddit 上的某位用户 发现,过去单次高级请求消耗的令牌价值约为11美元,因为一次“请求”涉及在上下文窗口中使用 60,000 个令牌、若干工具以及大量内部“迭代”(模型执行的操作)来生成输出结果。

此外,容易产生幻觉的大型语言模型本身也存在不可靠性。虽然一个高价请求在原地打转并吐出半吊子的代码可能会让人 感到沮丧 ,但当你自己承担这些成本时,同样的失误就很难被原谅了。

此外,用户已经习惯以一种与代币计费完全不同的方式使用该产品,我想其中许多人甚至并没有真正意识到自己消耗了多少“代币”,或者完成某项任务需要多少代币——而这些数值会根据所采用的计费模型而有所不同。

这与优步完全不同, 而任何告诉你相反观点的人,都在试图为不良行为找借口。 优步或许提高了价格,但这并不意味着它必须彻底改变平台的经济模式,用户也不必因为优步突然改按每加仑收费而完全改变使用习惯。

“按月订阅”全是AI补贴骗局的一部分,有意将生成式AI与其实际成本割裂开
从来没有——将来也不会——存在一种在经济上可行的方式,能够在不向每位用户收取 实际代币费用的情况下提供由大型语言模型(LLM)驱动的服务;而在欺骗这些用户的过程中,这些公司所打造的产品不仅收益虚幻,其投资回报率也令人质疑。

这一点多年来一直显而易见。

从经济角度来看,月度订阅模式只有在成本相对稳定时才具有合理性。

健身房在销售会员卡时,大致知道设备在一定时期内的折旧程度、课程运营成本,以及水电费、人工费等各项开支。

在引入人工智能之前,Google Workspace 的客户只需承担访问或存储文档的相关费用,以及 Google 文档和其他服务的持续费用。由于数字存储成本相对较低(且与大型语言模型不同,Google Workspace 对计算资源的需求并不高),因此即使是非常频繁使用 Google 云端硬盘的用户,也不会对他们的月度订阅利润造成侵蚀。

相反,AI 订阅用户的成本可能大相径庭 。

有的用户可能只是偶尔用ChatGPT进行搜索,而另一些用户则可能输入大量文档,或尝试重构代码库,甚至试图用它来制作 PowerPoint 演示文稿。

而服务提供商——无论是像 OpenAI 或 Anthropic 这样的模型实验室,还是像 Cursor 这样的初创公司——除了通过降低产品性能(例如设置使用限制、缩小上下文窗口大小、将客户引导至性能更差的小型模型,或调整定价以阻止用户发起大量占用 GPU 资源的请求)之外,实际上并无有效手段来控制用户的行为。

然而,这些服务会刻意隐藏代币数量或某项操作的实际消耗,这意味着用户并不知道“速率限制”究竟意味着什么,因此每次对速率限制的突然调整 导致客户不得不拼命推算,自己究竟能通过该服务完成多少实际工作。

这是一种滥用、操纵和欺骗性的商业手段,其存在仅是为了让Anthropic、OpenAI 及其他人工智能公司能够扩大用户基数,因为绝大多数人工智能用户完全是通过“能够消耗”这一视角来感知其真实或想象中的益处的每花费1美元订阅费,就能在代币中获得8至13.50美元的回报。

这种蓄意的欺骗行为只有一个目的:确保绝大多数人永远不会了解到生成式人工智能的真实成本。

当 《大西洋月刊》大肆渲染 Claude Code 是 Anthropic 的“ChatGPT 时刻”时, 其依据的却是每月20美元的订阅费,而非 Anthropic 提供该服务所实际产生的底层代币销毁成本。这反过来又让作者对模型可能出现的“微小错误”,或是其在“处理更复杂的编程任务时卡住”的情况予以宽容。

如果这位作者是自掏腰包支付了代币销毁的费用,而且每次代币“卡住”都要被扣15美元,我想她对这些失误就不会这么宽容了。

然而,这一切都是骗局的一部分。

非常、非常重要的一点是,主流媒体中撰写人工智能相关文章的人实际上根本不了解这些服务的成本究竟有多高;而且,任何关于 ChatGPT 或 Claude Code 等服务的主流文章,其作者对每项具体任务可能给用户带来的成本几乎一无所知,或者完全不了解。

请记住:生成式人工智能服务在很大程度上属于实验性产品,其运作方式与任何其他现代软件或硬件都不同。你不能像对待普通软件或硬件那样,直接打开 ChatGPT 或 Claude 并开始要求它们执行任务。

我的意思是,你可以,但如果你没有给出正确的提示、不了解它的运作原理、在输入内容时出错,或者它本身就判断错误,它就会输出你不喜欢的内容,这意味着你需要重新给它下达指令。 大型语言模型(LLMs)天生具有不可预测性。

你无法保证一个大型语言模型(LLM)是否会执行某项特定操作,也无法保证它给出的结果是否基于现实。你无法确切知道某项任务——即便是你过去曾多次使用大型语言模型完成的任务——可能需要多少成本;同样,你也无法确定模型何时会失控并删除某些内容,或者干脆不执行某项操作却声称已经完成了。

如果你不是按每次交互计费,这些情况就容易被原谅得多,因为在订阅者的观念里,这不过是与聊天机器人多互动一两次,而非会产生实际成本的事情。

人们之所以不批评所谓的“不稳定智能”,是因为大家默认认为,无论你现在面临什么问题,将来某个时候都会解决,而且你最终也没为此买单。

如果用户被迫按实际费率付费,我想很多人会立刻弃用这个产品,因为如果你只是随便玩玩、探索大语言模型(LLM)能做什么,5 美元的代币转眼就能花光。

事实上,你可能会花掉一大笔钱却始终得不到想要的结果,因为大型语言模型(LLM)根本算不上真正的人工智能!

如果对它们的局限性缺乏真正了解,人们很容易就会花掉30美元、50美元,甚至100美元,试图说服一个 LLM 去做它坚称自己能够做到的事情。

这有个专有名词,阿谀奉承。

大型语言模型(LLMs)通常被设计成会迎合用户,即使用户 说出危险且不着边际的话 ,这种迎合甚至可能延伸到问:“你想要这个既在技术上也不在财务上都完全不可行的庞大项目吗?” 没问题!

这就是为什么该行业如此费尽心机地掩盖这些成本——这简直是明目张胆的敲竹杠!

我认为,大多数人工智能订阅服务转向代币计费模式是不可避免的,尤其是考虑到 Anthropic 和 OpenAI 现已对其企业客户采用了这种模式。

微软将 GitHub Copilot 订阅用户转为基于令牌的模式,这也是一个非常、非常不祥的征兆。微软无疑是资金最雄厚、盈利能力最强、且最具备条件继续补贴计算资源的公司;如果连它都无力继续这样做,那么其他任何公司也做不到。

真正值得关注的是—— 一匹真正的白马 ——将是像 Anthropic 或 OpenAI 这样的主要 AI 实验室将 所有 订阅用户转为代币计费。 一旦发生这种情况,你就知道大局已定。

普通企业能否负担得起转向代币计费模式?Anthropic估计,用户每天在Claude Code上的花费为13至30美元(每年7000多美元),而大型企业每年则花费数十万甚至数百万美元。
正如我上周所讨论的, 优步(Uber)首席技术官在一次会议上表示,该公司仅用几个月时间就花光了2026年整年的AI预算 ,高盛指出,部分企业用于 AI 代币的支出已占其员工总数的 10%,未来几季度这一比例可能升至100%的水平。

这是因为每家人工智能公司都在教导用户尽可能多地使用这些服务,同时却刻意掩盖其真实成本所导致的直接后果。每一家要求每位员工“尽可能多地使用人工智能”的大型企业,在提出这一要求时,要么根本无视,要么完全脱离了其实际代币消耗情况;而随着企业被迫支付 实际成本 ,我不确定从经济角度如何能 为 这项技术中的任何投资提供依据。

当然,当然,你会说工程师们“交付代码的速度更快了”之类的废话,我懂,但是到底快了多少,结果又赚了或省了多少钱?

如果你把 10%的人力投入到 AI 代币上,这笔额外开销是否通过其他方式得到了平衡?因为我不确定你们做到了。 我不确定任何企业投入如此巨额资金在代币上,能看到任何投资回报,这就是为什么每项关于AI 投资回报率的研究 都难以找到其确实存在的有力证据。

总体而言,那些你读到过、对生成式人工智能的种种可能性大加赞赏的人,其实都是在无需承担真实成本的情况下体验了这项技术。那些在推特上滔滔不绝地吹嘘整个工程团队都在埋头开发 Claude Code 的疯子们,其实都是通过每月每人125美元的Teams订阅。其使用限制与 Anthropic 每月100美元的消费者订阅大同小异。

每个在领英上喋喋不休、坚称自己使用某种 Perplexity 产品“几分钟就完成了数小时工作”的怪胎,所支付的费用至多不过是每月 200 美元的Perplexity Ma 订阅费。

实际上,那份每月1250美元、供10人使用的 Teams 订阅,仅 API 调用费用每月就可能高达5000至10000美元,甚至更多。

Anthropic 增长负责人阿莫尔·阿瓦萨雷(Amol Avasare)上周表示,其Max订阅服务专为高频聊天使用而设计 ,而非用户在Claude Code 和 Cowork 上的各类操作。

他明确表示,Anthropic 目前正在探索“ 各种方案以持续提供优质体验,”这实际上意味着“我们迟早会调整价格。”

我不确定大家是否意识到这些代币有多昂贵,尤其是对于涉及庞大代码库、并需要定期调用编码和基础设施工具的开发项目而言。

每月支付 200 美元的人,真的能负担得起350、400或500美元吗? 他们能否承受某个月的支出超过这个数额? 如果他们超支了,或者真的无力承担完成工作所需的费用,会发生什么?

举一个更贴近实际的例子,截至4月初, Anthropic 自己的 Claude Code 开发者文档 ( 存档 ) 曾指出:“[使用 Claude Code 的]平均成本为每位开发者每天6美元,90% 的用户每日成本低于 12 美元。” 截至本周, 文档内容已更新如下:

Claude Code按API令牌消耗量计费。每位开发者的成本因模型选择、代码库规模以及使用模式(例如运行多个实例或自动化操作)而差异较大。

在企业级部署中,平均成本约为每位开发人员每个活跃日13美元,每月150至250美元,且90%的用户成本仍低于每个活跃日30美元。

若要估算您团队的支出,建议先从一个小型试点小组开始,并利用下方的跟踪工具建立基准,然后再进行更大范围的推广。

如果按每月平均21个工作日计算,那么每位 Claude Code 用户的平均成本约为每月 273 美元,或每年3,276美元。若按每个工作日30美元计算,则每月成本为630美元,或每年7,560美元。

这些数字令人震惊 ,更令人震惊的是, 如果你使用Anthropic的任何较新模型,每天的开销绝不可能只有30美元。

Claude Opus 4.7的费用为每百万输入令牌 5 美元,每百万输出令牌 25 美元。 一百万个令牌大约相当于 50,000 行代码 ,而且假设你使用的是所谓的尖端模型,那你绝对不可能不消耗 至少一百万行,如果你不清楚特定任务该用哪些模型,这个数字还会急剧增加。

我们再来仔细分析一下这个30美元的数字。

对于一个十人的开发团队来说,这相当于每年75,600美元,而且我们只计算工作日。

如果你仅工作三个月,每天平均赚50美元,那么总收入将达到88,200美元

只要有一个月的支出超过100美元,你一年的总支出就是102,900美元。

如果你每天花费300美元,那么目前你为十个人购买代币的总花费已达756,000美元。

虽然在资金雄厚的初创企业或像 Meta 这样的“香蕉共和国”那种“小金库”思维模式下,这或许可行,但任何真正注重成本的企业,都很难为一项“提高生产力”却又无人能量化的服务,额外花费五位数或六位数的费用找到正当理由。

目前,我认为大多数公司大致可分为三类:

在 Spotify 或 Uber 这类大型企业中,由深谙人工智能的 CEO 主导的企业级部署,使得预算得以肆意挥霍。

我认为,在资金雄厚的大型初创企业中也是如此。

使用受补贴的“Teams”订阅服务的中小型初创企业。

个人用户支付月费以使用 Claude 或其他 AI 订阅服务。

大型企业至今仍可以理直气壮地宣称,他们正为软件工程师在 AI 代币上投入数百万美元 其理由是让“顶尖工程师”无需编写代码——尽管这种做法的益处颇具争议.

只需一次糟糕的财报电话会议,就能彻底颠覆这种叙事。

当公司的营收增长跟不上时,投资者——甚至包括那些一直在吹捧 AI 泡沫的脑残蠢货——终将开始质疑不断攀升的研发成本(AI 代币销毁通常就隐藏在其中)。

这很可能导致更多裁员以控制成本, 就像 Meta 的情况一样 ,随后当有人问“这些破玩意儿到底能不能帮我们更快或更好地完成工作?”时,市场终将出现回调。

我还认为,那些将10%或更多员工名额用于 AI 岗位的初创公司,半年后将很难说服投资者相信此举是必要的。

而且一旦大家都转为代币计费模式,我不确定生成式人工智能还能像现在这样备受追捧。

人工智能数据中心和计算资源的经济逻辑难以成立
人们谈论人工智能数据中心的方式完全脱离了现实,而且我认为大家并没有意识到这个时代已经变得多么荒谬。

人工智能数据中心的建设成本高昂,运营成本高昂,且实际收入微乎其微
据 TD Cowen 的杰罗姆·达林(Jerome Darling)称,关键 IT 设备(GPU 及相关硬件)的成本约为3000万美元,而每兆瓦数据中心容量的成本约为1400万美元。数据中心的建设周期似乎在一年到三年之间,具体取决于规模,且这还是在电力供应充足的前提下。

据称到 2028 年底将建成 114GW 的数据中心, 但目前以任何形式在建的仅有 15.2GW。 而且,“在建”一词的含义可能仅指“地面上挖了个坑”。这并不意味着——也不应意味着—— 该设施将提供的容量即将投入使用。

我们先从简单点说起:每当你想到“100 兆瓦”时,就想到“44 亿美元”,其中很大一部分将用于英伟达的GPU。

因此,每个 AI 数据中心从一开始就背负数百万美元的债务,即使采用长达六年的折旧周期,也需要数年才能偿还 ……而考虑到英伟达的年度升级周期 ,一旦首个客户合同结束,这些GPU恐怕很难再带来多少收益。

目前尚不清楚,除了 OpenAI 和 Anthropic 之外,是否还存在其他 AI 计算的客户群体, 这两家公司的需求占在建 AI 数据中心的 50%,如果其中任何一家无力支付,都将造成巨大的系统性风险。

无论如何,这些数据中心目前收取的具体费率也不清楚。 虽然 B200 GPU 的现货价格可能在每小时 4.50 美元左右,但长期合同的价格通常要低得多。据《The Information》报道,一位创始人表示,他们签订了一年期合同,每台 GPU 每小时支付约 3.70 美元。

需要明确的是,我们必须区分现货 成本——即在他人服务器上随机启动 GPU 的成本——与合约计算,后者占数据中心资本支出的绝大部分。 大多数数据中心的建设初衷是服务于 一两个大客户 ,这意味着这些客户很可能协商出更优惠的综合费率。

因此,许多数据中心的每小时成本远低于3.70美元,因为它们按每兆瓦(或千瓦)计费。

而这也正是经济逻辑开始失效之处。

100兆瓦数据中心的经济模型为何失灵——每小时2.55美元,100%出租率下毛利率仅16%,却因债务而无法盈利
这是 100 兆瓦数据中心的起始成本。

一个 100 兆瓦的数据中心实际可用功率可能只有 85 兆瓦 可用容量 ,据熟悉超大规模云服务商计费机制的消息人士透露,其每兆瓦预计可产生约 1250 万美元收入,即年收入约 10.63 亿美元。

现在,我需要明确一点:你们所熟知的大多数数据中心公司其实并不亲自建设数据中心,而是将这项工作交给像 Applied Digital 这样的公司,这些公司也被称为“托管合作伙伴”。

例如, CoreWeave向Applied Digital 支付托管费用,以使用其位于北达科他州的数据中心 。

CoreWeave 负责数据中心内的所有GPU及其他技术设备。

为了解释这种经济错配,我将以一个理论上的数据中心为例,该数据中心被租赁给了一家理论上的AI计算公司。

该数据中心的 GPU 很可能是英伟达的Blackwell芯片。极有可能的是,该数据中心正在使用由8块 B200 GPU组成的集群,每块零售价约为 45 万美元,即每块GPU约56,250 美元。

根据85兆瓦的关键IT负载计算,每兆瓦的总资本支出约为36.78美元,即 IT 总资本支出约为 31.26 亿美元,其中 GPU 部分约为 26.7 亿美元。

假设该数据中心位于北达科他州的埃伦代尔,这意味着您享受的工业用电价格约为每千瓦时6.31美分,折算下来,每年的电费成本约为5540万美元。

根据与相关人士的讨论,我估计维护、人员开支、电源更换等持续性成本约占收入的 12%,即每年约 1.28 亿美元,因此总成本达到 1.834 亿美元。

等等,抱歉。你还需要根据关键 IT 设备支付托管费,据 Brightlio 称,该费用通常为每月每千瓦180至200美元 ,具体取决于部署的规模和地点,不过我曾看到过低至 130 美元的情况,所以我采用这个数字,即每年约 1.33 亿美元。 这样算下来,总计为 3.164 亿美元。

嗯,这还不到10.6亿美元,所以我们情况还不错,对吧?

错!你需要对价值31.26亿美元的IT设备进行折旧,在6年的折旧期内,每年折旧额约为 5.21 亿美元。这意味着每年折旧 8.374 亿美元,因此每年利润约为 1.686 亿美元,毛利率约为 16.7%……… 前提是你的机房始终保持100%的租用率!

要知道,数据中心可能需要一两个月才能完成这些 GPU 的安装和客户入驻,在此期间你不仅一分钱收入都没有,反而会损失更多——因为你必须一直支付机房托管费、电费和运营成本,尽管费率要低得多 (我设定的模型中,电费占比为 10%,机房托管/运营支出占比为 15%),这意味着你每天亏损约 327 万美元。

为了便于说明,我们假设你需要额外花一个月时间才能让该项目投入运营,这意味着你已经支付了约1.02亿美元,且这笔钱将无法收回,从而使我们本年度的总成本(含折旧)达到9.394亿美元,毛利率为6.6%。

等等,靠,你该不会是用借贷来买这些显卡的吧? 你真这么干了? 情况到底有多糟? 天啊 ——你拿到了一个6年期、贷款价值比(LTV)80%的资产抵押贷款,这意味着你以 6%的利率借了28亿美元。

贵行一如既往地慷慨,向您提供了一项优惠——长达12个月的宽限期,期间您只需支付利息……这笔利息约为1.68亿美元,因此(为公平起见,扣除延迟的一个月),第一年的总成本约为10.05亿美元……而收入仅为10.6亿美元。

这意味着毛利率为5.19%,而你甚至还没开始偿还本金。一旦开始偿还本金,你每月需支付5410万美元的贷款本息,未来五年每年总计约6.49亿美元,累计约14.8亿美元,这意味着毛利率将降至负40%左右。

而且我必须明确指出, 这仅适用于设备利用率达到100%,且租户每次都能按时付款的情况。

“星门”是一场灾难——每小时每块GPU耗资2.94美元,年收入100亿美元,进度落后数年,一家租户每年亏损数十亿美元
让我们来谈谈应该成为数据中心历史上最具经济可行性的项目——由甲骨文(Oracle)为全球最大的人工智能公司建造的一座庞大园区。

甲骨文是一家拥有数十年历史、几乎达到超大规模级别的公司,长期以来一直向企业和政府销售昂贵的数据库及企业管理软件。

哈,我当然是在开玩笑,这地方简直是个他妈的噩梦。

Stargate Abilene 是一个由八栋建筑组成的数据中心园区,总容量达1.2GW,其中关键 IT设备约占 824MW,该项目于2024年7月首次公布 。 截至2026年4月27日,仅有两栋建筑投入运营并产生收入,而第三栋建筑内几乎没有任何IT设备。我估计Stargate Abilene的总成本约为528亿美元。

根据我自己的报道 ,甲骨文预计“Stargate Abilene”项目将带来约 100 亿美元的年收入,而我估算其为单一客户 OpenAI 建设的 7.1 吉瓦数据中心容量将带来约 750 亿美元的总收入。 正如我此前报道,甲骨文在 2024 年估算,Abilene 项目每年需向土地开发商 Crusoe 支付至少21.4亿美元的机房托管及电费。

我还想补充一点,看来甲骨文公司正在承担阿比林的所有建设费用。

根据我的计算和报告,我估计阿比林公司全面投产后,其毛利率约为37.47%:



我必须明确指出,37.47% 的毛利率可能偏高,因为我并不确切了解甲骨文的实际保险或人力成本,仅能根据本刊查阅的文件进行估算。

我还必须明确指出,甲骨文正在将它整个该死的未来押注在“星门阿比林”这类项目上,为一项业务预先投入数十亿美元成本——即便 OpenAI 能按时支付每一笔款项,这项业务也需数年才能实现盈利。

遗憾的是, 我无法确定 Abilene 有多少资金是通过债务筹集的,只知道甲骨文在 2025 年 9 月发行了规模各异的债券, 总额约 180 亿美元,期限从 7 年到 40 年不等,且 在上一季度财报中出现了 247 亿美元的负现金流 。

我所知道的是,它与开发商Crusoe签订了一份为期15年的租赁协议 ,而且甲骨文的未来在很大程度上取决于OpenAI 能否持续支付租金,而这又取决于甲骨文能否完成 Stargate Abilene 项目。

我还必须明确一点:只有在 OpenAI 按时付款、尽快接管阿比林项目,且一切按计划进行的情况下,才能实现这38.5亿美元的年利润。

如果OpenAI在未来4年内无法通过营收、融资和债务筹集到8520亿美元,那么“星门”数据中心项目将让甲骨文倒闭
遗憾的是,实际情况却恰恰相反:

据 DatacenterDynamics 报道,首批 200 兆瓦的电力原定于“2025 年 ”投入使用。

随着时间推移,入驻计划原定于2025年上半年开始,并“到2025年有望达到1GW,” 并于2026年中期完成全部1.2GW装机容量 ,预计于2026年中投入运行,到2026年底拥有 64,000个GPU。

截至2025年9月30日,“两栋建筑已投入运营”,截至2025年12月12日, 甲骨文联合首席执行官克莱·马古尤克表示,阿比林项目“进展顺利”,已交付“超过 96,000 块英伟达 Grace Blackwell GB200”,即相当于两栋大楼的 GPU 数量。

四个月后的2026年 4 月 22 日, 甲骨文在推特上发文称 “……在阿比林,200 兆瓦的电力已投入运营,八栋建筑组成的园区建设仍按计划推进。”

目前尚不清楚这200兆瓦是指关键IT设施的容量,还是阿比林园区的总可用电力;无论如何,这仅够满足两栋建筑的用电需求,这意味着甲骨文显然并未“按计划”推进。

这是一个重大问题。OpenAI 只能为实际存在的计算资源付费,而目前仅有 206 兆瓦的关键 IT 资源正在产生收入,其中三分之一至少还需要一个月(甚至一个季度)才能开始创收。

然而,“星门”数据中心项目整体上还存在一个更严重、更具根本性的问题——该项目唯一能说得通的前提,就是 OpenAI 必须实现其那些荒谬可笑、简直像卡通片里才有的预测。

正如我上周五所讨论的 :

我再重复一遍这些数据:目前正在建设的7.1吉瓦 Stargate 数据中心,建成后预计将带来约750亿美元的年收入,总成本将超过 3400 亿美元。

甲骨文的自由现金流为负 247 亿美元,其其他业务线已趋于停滞,这使得利润率为负或较低的云业务成为其唯一的增长引擎。

要想真正支付其计算服务合同的费用——无论是支付给亚马逊、微软、CoreWeave、谷歌、Cerberas 等合作伙伴,还是支付给甲骨文——OpenAI 必须在四年内筹集或创造 8520 亿美元的收入和/或资金,这意味着其业务必须每年增长超过250%, 每年增长率必须超过 250%,到2030年底时业务规模需扩大 10 倍,届时它必须设法实现现金流转正,这些数字才有意义。

说白了,OpenAI 的预测显示,未来四年该公司将赚取 6730 亿美元,但为此将烧掉 2180 亿美元。这显然是一项极其亏损的业务,即便不是这样,它也必须赚取远超当前的利润,才能持续向甲骨文支付费用。

我得出这个 750 亿美元的数字,是基于以下假设:Vera Rubin GPU 的计算成本约为每兆瓦 1400 万美元(这一数字已得到熟悉数据中心行业人士的证实),并以此计算剩余 4.64 千兆瓦的关键 IT 基础设施——我预计这些设施构成了剩余的 Stargate 数据中心。

OpenAI 的数据直接来源于 《The Information》报道的 OpenAI 预计现金消耗率和收入泄露信息 ,据此,该公司预计到2030年底将实现6730亿美元的收入,并为此消耗8520亿美元:

我必须明确指出,任何记者如果只是重复这些数字,却不指出这些数字有多么愚蠢,都应该感到有点羞愧。正如我在周五的文章中所说:

换句话说,OpenAI预计两年内其营收将超过台积电 ,三年内年收入将接近Meta的水平,到2030 年底,其年收入将与微软相当( 约3000亿美元(基于过去12个月的数据))。

而且如果 OpenAI 无力承担这些计算成本,甲骨文就完蛋了, 因为它 仅为建造 Stargate 的数据中心就背负了约1150亿美元的债务 ,且还需要1500亿美元才能完成建设:

甲骨文是一家目前年收入约为640亿美元的公司,其上一季度的自由现金流为负247亿美元。

该公司于2025年9月发行了180亿美元债券 ,2026年2月发行了250亿美元债券,该公司于3月某时进行了200亿美元的按市价发行股份,尽管该交易数月前就被称为“已完成”,但似乎直到最近才真正完成威斯康星州 Stargate 和 Shackelford 项目的 380 亿美元项目融资 。

版权声明:
作者:感冒的梵高
链接:https://www.techfm.club/p/235452.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>