“AGI不是一个特别有用的词。”8月11日清晨,OpenAI CEO Sam Altman在CNBC《Squawk Box》上轻描淡写的一句话,直接把自家官网挂了6年的使命宣言——“保证通用人工智能(AGI)惠及全人类”——推进了语义回收站。
三天前,GPT-5刚刚上线;同一天,媒体爆料OpenAI正与Thrive Capital洽谈以约5000亿美元估值完结新一轮老股转让。一边是史上最贵的AI公司,一边却是CEO带头“拆台”职业图腾。这一幕怎么看都像是科幻片里的回转桥段。
Altman的改口并非即兴发挥,而是OpenAI在技能、商业、监管三条战线上同步“换挡”的外显:
技能换挡:从“万能神”回到“多面手”,用分级才能结构代替“AGI or not”的二元叙事;
商业换挡:收入狂奔到年经常性收入(ARR)200亿美元,却仍坚持“长时间亏本”,用本钱杠杆对冲盈余压力;
监管换挡:自动稀释“AGI”概念,下降国会山对“一家私营公司行将造入迷”的灵敏阈值。
下文将用三条主线拆解这场“祛魅”运动背面的算盘与价值。
8月8日,GPT-5向一切ChatGPT用户推送。OpenAI官方话术是:更聪明、更快、更有用,特别写作、编程、医疗问答三大场景。但是交际媒体上的高频词却是“就这?”南安普敦大学Wendy Hall教授直言:“从各方面看,这是一次渐进晋级,而非革新。”
假如咱们把每次GPT模型按“参数量×练习功率×推理速度”做一个简化版的“才能刻度尺”,会发现:
GPT-3 → GPT-3.5:刻度+1,解锁Few-Shot提示;
GPT-3.5 → GPT-4:刻度+2,多模态、逻辑链明显增强;
GPT-4 → GPT-5:刻度+1.5,代码一次性经过率从67%说到81%,医疗
执照考试从80%升到87%。
每一次都更好,却没有任何一次呈现“笔直猛增”。Altman在内部全员会上供认,依照他个人界说(“可以持续自主学习并自我改善的体系”),GPT-5离AGI仍有间隔。
已然“AGI”已被宣告失效,OpenAI拿什么向客户和投资人讲故事?答案是“才能分级”。上一年11月FinRegLab AI研讨会上,Altman初次提出用L1-L5结构替代AGI叙事:
L1 谈天机器人(Chatbot)
L2 推理者(Reasoner,人类水平的问题解决)
L3 署理(Agent,可执行多步使命)
L4 立异者(Innovator,可辅佐科学发现)**过了一个月可以告强奸吗****
L5 安排者(Organization,可完结整个安排的作业)
GPT-5被内部评价为“L2+”,即在某些子范畴摸到L3门槛,但仍旧缺少长时间回忆、自主规划与环境交互的闭环。这套说辞的优点清楚明了:
关于客户:收购决议计划不再押注“万能神”,而是可落地的“才能模块”;
关于监管:把“一步登天”拆成五级台阶,减缓“奇点惊惧”;
关于投资人:把“结局估值”拆成“里程碑估值”,每一级都能再融资。
依据CNBC拿到的数据,OpenAI 2024年估计亏本50亿美元,对应收入37亿美元;而2025年ARR行将打破200亿美元,亏本却同步扩大。Altman在镜头前直言:“只需模型才能曲线持续峻峭,理性挑选便是持续亏本。”
把这句话翻译成财政模型:
收入侧:ChatGPT订阅(20美元/月)、API调用(每1k token 0.06美元)、企业定制(年费百万级)三线井喷;
本钱侧:练习GPT-5一次性烧掉约6.3亿美元,推理本钱跟着用户量指数级添加;
本钱侧:5000亿美元估值=未来现金流折现+“奇点期权”,后者需求持续讲故事。
换言之,OpenAI正在用“亏本”购买“更大亏本的权利”,只需故事不被证伪,本钱就会持续加注。
2015年,OpenAI对错盈余;2019年,转为“封顶盈余”;2025年,它正进行一次“影子IPO”——不上市,却让老股东和新基金以5000亿美元估值买卖存量股。这么做的优点:
1、避开SEC繁琐发表,持续把练习数据、算法细节、安全危险留在黑箱;
2、防止公开商场季度财报对“长时间亏本”的拷问;
3、用“稀缺老股”制作饥饿营销,把估值锚定在最高一级。
Altman在采访中笑称:“不上市真好。”翻译过来便是:只需还能用私募商场的“无限子弹”,就不会把自己放到聚光灯下。
2024年夏天,美国参议院举行了三次AI闭门简报会,主题从“AI安全”晋级为“AGI管理”。议员们最忧虑的问题:假如OpenAI宣告完成AGI,是否意味着一家私营公司具有了“准国家”等级的权利?
Altman在国会作证时,曾用“AGI就像电网”来打比方,企图阐明OpenAI会成为基础设施而非权利本身。但明显,这套说辞未能消除疑虑。过了一个月可以告强奸吗所以,2025年咱们看到OpenAI自动“降格”:
不再提AGI时间表;
用“才能分级”替代“通用”;
着重“东西特点”,淡化“主体认识”。
欧盟AI Act把AI体系按危险分为“最小、有限、高、不行承受”四级。OpenAI的L1-L5与欧盟四级有奇妙的映射联系:
L1-L2对应“最小危险”,只需自我声明;
L3开端触及“高危险”,需求第三方审计;
L5则触碰“体系性危险”,面对最苛刻责任。
经过提早自我分级,OpenAI把监管博弈前置到“规范拟定”阶段,而不是比及产品上线后被追罚。
OpenAI本身:概念降级换来监管盈利、本钱盈利、客户盈利三杀;
微软:Azure绑定OpenAI,5000亿美元估值越稳,云收入越稳;
应用层开发者:不必再猜“奇点哪天来”,直接调用API做笔直场景。
竞品:Anthropic、Google DeepMind仍高举“AGI大旗”,显得不达时宜;
学术圈:AGI曾是AI道德、AI安全范畴最大的“科研经费磁石”,概念被稀释后,部分项目面对从头立项;
群众:在“狼来了”叙事重复拉扯后,对AI的敬畏感下降,或许带来新一轮“AI疲惫”。
八年前,OpenAI用一篇《用强化学习打Dota2》的博客点着了群众对AGI的幻想;八年后,Sam Altman亲手把这段叙事收进博物馆。
AGI的大旗被折叠收好,但AI的镰刀和锤子仍在日夜轰鸣。前史历来不是线性上升,而是在“造神—祛魅—再造神”的螺旋里弯曲前行。下一次,当某家公司宣告“已完成L4立异者”时,希望咱们仍能记起2025年8月,Sam Altman在CNBC镜头前那句轻描淡写的提示:“重要的不是名词,而是刻度。”
本文来自微信群众号“山自”,作者:Rayking629,36氪经授权发布。