一年亏损50亿美金 OpenAI不会未AGI身先死吧

收入成本

The Information 报道,据此前未公开的内部财务数据和相关人士的分析,OpenAI 预计今年亏损 50 亿美金,其亟需在 12 个月之内筹集更多现金,才能活下去。如果简单分析一下 OpenAI 的收入成本结构,你大概更能深刻理解,Sam Altman 为何将 OpenAI 描述为“硅谷历史上资本最为密集的初创公司”。

训练

以目前现金流,只够活到2025年年底?

参考过去一年的运营数据再结合如今的情况看,OpenAI 今年大概会出现 50 亿美元的资金缺口。我们知道一个公司能否运转下去,最根本的还是要看现金流。如果假设 OpenAI 一年就是 50 亿美金的缺口,且不再加大投入,微软在 2023 年 1 月给到 100 亿美金的投资,也就够撑到 2025 年年底(2023 年的资金缺口应该没有 50 亿美元那么大)。

回收打不正的原因之一就在于大模型公司高昂的运营成本。OpenAI 的成本主要来自推理成本、训练成本和人工成本三大块, 据推算一年大概要烧掉 85 亿美元,这比南苏丹全国一年的 GDP 还要多。

先说推理成本,这指的是 OpenAI 租用微软服务器为 ChatGPT 及底层 LLM 提供动力方面的支出,一位直接了解支出情况的人士表示,截至 3 月, OpenAI 一年的推理成本将接近 40 亿美元,而且这还是微软因为两者的关系给出了很大的折扣。

训练成本(包括支付数据费用)预计为 30 亿美元 ,是仅次于推理成本的支出大头。去年,OpenAI 进一步推进了对新一代人工智能的训练,因此花费也超出预期,OpenAI 早先计划在训练成本上花费约 8 亿美元,但结果就是没控制住。The Information 估计,随着该公司推出了新版本的旗舰 LLM,并开始训练新的旗舰模型,今年训练成本还将翻一番。

第三是人力成本,OpenAI 雇佣了约 1500 名员工,而且员工人数还在迅速增加,这可能会花费约 15 亿美元。 据直接了解支出情况的人士称,OpenAI 预计 2023 年的员工成本为 5 亿 美元,而到 2023 年底,员工人数翻一番,达到 800 人左右。如今 OpenAI 的员工人数又增加了近一倍,如果其网站上列出的近 200 个空缺职位能说明一些问题的话,那么在 2024 年下半年 ,OpenAI 可能还会增加更多的员工。

以上三项加在一起,OpenAI 今年的运营成本可能高达 85 亿美元,这让此前研究机构给出的 34 亿美元的 ARR 预估显得“杯水车薪”。

此前 Future Research 的一份报告指出 Open AI 的 ARR 大概在 34 亿美元左右,The Information 则给出了宽泛的预估数字,它根据 OpenAI 当前 2.83 亿美元的月收入,结合今年下半年未卜的销售情况,预计 OpenAI 的年收入在 40-50 亿美元之间,这个缺口比非洲国家布隆迪全国一整年的 GDP 还多。

降不下去的成本、不好增长的营收, 不容易拿到的融资?

抛开融资去看 OpenAI 自己独立存活下去的可能,其实我们会更倾向于认为,在未来的几年里,很难、非常难。

成本 比较简单,目前看起来相对有机会的方向是 降低推理成本 ,而对于训练成本,在目前大模型厂商积极抢位、各显神通的阶段,厂商们可能还是倾向于在训练 AI 上加大投入,因而 训练和人才成本可能只增不减。

推理成本上,鉴于微软和 OpenAI 的合作关系,OpenAI 其实一直以接近成本价的价格租用微软的服务器,这块儿基本降无可降。一位了解相关事项的业内人士表示,该微软租给 OpenAI 的集群一共配备了 35 万个英伟达 A100 芯片,ChatGPT 占用了其中约 29 万个芯片(占集群的 80% 以上),定价约为每个 A100 每小时 1.3 美元。但在技术架构上未来还有降低推理成本的可能,如果采用模型压缩、量化、并行化等技术,以及合理选择模型规模等等手段,还是有机会实现性能和成本的平衡。

占 40 亿美元的推理成本是最大头,如果能降下来,还是很可观的。毕竟如果事情往对 OpenAI 更有利的方向发展,未来会有更多人使用它,当然可能不付费,但会产生推理成本,下面我们也会提到。

另外,除了和微软的合作,OpenAI 目前也在积极推进和其他大型企业和机构的合作,可能也会有机会分担一定的成本。

收入方面 ,OpenAI 的 GPT 系列模型无疑是史上最强,但就赚钱能力来说,现在的局面可以说是十分复杂。

toC 订阅收入

OpenAI 最大的收入,超过 55% 来自于 ChatGPT Plus 用户,全球大约有 770万个人用户支付了 20 万美元的订阅费用。但是如果按照 AI 能力提升、AI 产品普及去判断 ChatGPT 的用户会逐步增加可能是对的,但 ChatGPT Plus 的个人用户会继续增长,可能就有点过于草率了。

首先,全球能够支付得起 20 美元/月来使用 AI bot 的总人数,可能就不多。 经济条件够、有强烈的工作或者学习需求,是 2 个硬性条件。

微软

在这之外, AI 能力的演进,反而在推动原本花钱的人变成免费用户。

一是自己卷自己。 例如本来订阅过 GPT-4 的我,支持图片上传、各种小功能的 GPT-4o 免费之后,自然就取消了订阅。而我们编辑部之前有大概 1/3 的人都花钱订阅了 ChatGPT,而现在都在考虑取消订阅。

一个是别人卷自己。 Claude Sonnet 出来之后,很多人都转过去了,这种现象并不少见。

这其实是这几个头部的大模型在卷,能力在拉近,AI 用户本身就爱尝新,粘性并不存在。

OpenAI不会未AGI身先死吧

另一个在 toC 个人用户上的问题在于,当不付费的用户越来越多,不产生收入也就算了,产生的推理成本切切实实存在的,据 The Information 报道,免费用户的数量在数百万左右。另外一个“坏消息”是,ChatGPT 要被集成到 iPhone 中去,更恐怖的是,苹果并不会付钱,就是这么强势。所以,上面会提及推理成本的下降对 OpenAI 来说,非常关键。

而随着苹果和 ChatGPT 的高强度联通,可能会出现新的生态系统而诞生新的商业机会,但前提是 OpenAI 能够活着等到那天。

亿美元

另外,随着大模型技术的成熟,距离应用层的爆发也更近一步,而 OpenAI 企业目前暂未推出除了 ChatGPT 以外的独立 C 端应用产品,就 OpenAI 本身的技术能力和产品知名度来看,可能不需要花费很多额外的成本,不知道这里未来是否有可能成为一块收入组成。

ToB 收入

toB 方面,企业版和团队版加起来算是第二大收入,OpenAI 在今年与 PwC 合作来分销,但企业服务这块的竞争激烈程度只能说比 toC 有增无减。

而 toB 的另一块,API,其实我们当时看到数据,第一反应就是,API 的收入竟然有点低?但仔细一想确实能找到合理性,首先大模型的价格战真的是异常热闹,API 的价格一降再降。搜一搜新闻,差不多都是某大模型 API 降级 95+% 以上,这里面的某大模型基本可以替换成任何有头有脸的大模型的名字。

而大模型们的钱,很大一部分都被云服务商赚走了。集成了各家大模型的云厂商的财务数据一个比一个好看。例如没什么存在感的 Google Cloud,昨天发布 2024 年 Q2 财报, Google Cloud 首次实现季度收入超过 100 亿美元,营业利润超过 10 亿美元。

而大模型本身,却是一边承担着极高的研发压力,另一方面却是只能分到三瓜俩枣。

模型

这样来看,几种现有的收入模式,增长较为困难,更多可能还是要开源,The Information 提及了 OpenAI 可能计划推出真正赚钱的搜索、以及可能 toB 企业迅速买单的 PC Agent。

只能说,对于 OpenAI 来说, 好消息 ,是他们的收入增长比成本增长快,而他的对手,更差劲一些。现在势头比较猛的 Anthropic,收入大概是 OpenAI 的 1/10-1/5,但亏损却有 OpenAI 的一半。相对“健康”的财务管理和与对手拉开差距占领更多市场份额,成为了大模型的唯一解。

坏消息 是,在闭源模型抢占市场这条路线之外,还有 Meta 这样的开源选手,昨天推出的 Llama3.1 405B 在各场景下已经开始对标闭源模型 GPT-4o 和 Claude 3.5 Sonnet 了。当开源模型的能力开始赶上闭源模型,AI 行业的市场格局可能会发生改变,而在这之上建立的商业模式,可能就不再成立。

另外,在上一轮融资中已经有不少老股东被未选择跟投,当然这其中既有资本本身的投资能力和偏好等主观因素,也有 OpenAI 始终不稳定的组织架构、市场前景暂不明确等客观原因。

不过无论如何,OpenAI 仍然是那个最有希望活下去的大模型创企,因为在当下语境,有多少人希望 ChatGPT 的大厦崩塌,就有多少人希望 ChatGPT 的传奇继续。

商业世界中,产品和钱很多时候都是数字,由一个个数字吸引另一些些数字。

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://srwj168.com.cn/keji312/2919.html
内蒙古兴安盟一处桥梁及部分路段被山洪冲毁 当地 有车辆掉落
听信偏方险酿大祸!两个月婴儿过敏性休克 别再这么做了……