(网经社讯)12月3日,中国科技产业智库「甲子光年」在北京·万达文华酒店举办「2025甲子引力年终盛典」。甲子光年创始人&CEO张一甲重磅发布主题报告《轰然成势 万象归一:2025人工智能产业30条判断》。以下为报告详细内容。
1.过去一年,AI发生了什么?
2.此刻:轰然成势,万象归一
2.1轰然成势,万象归一
今年的主题是“轰然成势,万象归一”,我先解释一下为什么用这八个字作为主题。
如果一个人在十年前沉入梦乡,今天刚刚苏醒,他或许会觉得人工智能是一个凭空降临的庞然大物。
一觉醒来,仿佛世界被重新编码。它无处不在:能写文章、能编曲、能设计、能编程,在企业中排班,在工厂里检测,在课堂上教学,在医院里诊断……仿佛这股力量,是在他沉睡的这些年里突兀而神秘地横空出世。AI已经“轰然成势”。阈值已至,其势已成。
何为“势”?
势,不是单一参数的线性增长,而是复杂系统的能量耦合,多股力量同频共振,将我们推过一个无可逆转的临界点。势也并非凭空而来,它是长期积蓄后的“轰然显形”,就像地震前的地壳运动——缓慢而坚决,某一刻地表的震动,只是深层能量早已堆积的结果。
从“算法可行”到“系统成势”,这一路,是时间的压强,也是集体意志的汇聚。
何为“万象归一”?
“归一”不是指一切被统一为单一,不是消弭多样性,而是对复杂性的更高维组织——在全新的经济形态里,我们开始共享一种新的底层逻辑。
模型、算力、数据、应用,正融合为统一的经济基础;千行百业的痛点,正在“智能”这一命题下找到共解;政策、资本、产业与社会接受度,也必须形成新的协同。
2.2“轰然成势”,是能量的临界;“万象归一”,是秩序的自觉
“轰然成势”,是能量的临界;“万象归一”,是秩序的自觉。
“轰然成势,万象归一”八个字,蕴含着智能革命从爆发到秩序的底层逻辑。
3.定义:“默认式AI(Default AI)”
3.1概念定义:默认式AI(Default AI)
这个底层逻辑是什么?
甲子光年将其定义为:默认式AI。
“默认式AI”(Default AI):无需用户主动选择或感知,默认存在、默认开启的人工智能形态。
——甲子光年
经历了数年的爆发与重构,AI从“技术的奇观”成为了“默认的存在”。它不再是实验室里的惊叹,而是社会的结构,是经济系统的沉默底层。它不是“被使用的AI”,而是“自然而然存在的AI”。
3.2默认即智能:智能成为常态,AI走向日用而不觉
2023年我们感受到的AI是惊讶、尝鲜;2024年我们感受到的AI是商业的拷问;2025年我们感受到的AI是一种“默认”——默认即智能:智能成为常态,AI走向日用而不觉。
如果我们打开一个网页,没有AI,你会觉得很奇怪;如果你的一位朋友没有使用过AI,你会觉得很反常。
数据显示:超过一半的美国成年人(61%)在过去六个月中使用过人工智能,近五分之一的人每天都依赖人工智能。
3.3默认式AI特征:关闭才是例外,不用才是例外,不会才是例外
“默认式AI”具有三大特征:
1.非选择性(Non-optional):用户不再“决定是否使用AI”,而是在日常操作中自动与AI交互。例如:输入框默认AI补全、相机默认AI识别、搜索结果默认AI重写。
2.低感知(Invisible):AI的参与被隐形化和底层化,用户甚至不察觉AI在起作用。例如:iPhone照片自动分类、邮件的智能排序、文档自动摘要。
3.系统绑定(System-integrated):AI不以独立应用的形式存在,而是嵌入操作系统、平台或设备的基础层。例如:Windows Copilot、Apple Intelligence。
3.4AI社会化三阶段:工具式AI→伴随式AI→默认式AI
默认式AI(Default AI)是人工智能社会化演进的第三阶段。
阶段1:工具式AI(Tool AI)——AI是“被使用的能力”,强调“我在用AI”。
阶段2:伴随式AI(Assistive AI)——AI是“共同工作的伙伴”,强调“AI在帮我”。
阶段3:默认式AI(Default AI)——AI是“世界的底层逻辑”,强调“AI就在那儿”。
当一项技术成为“默认式”的,意味着它已经深度嵌入社会结构,具备了不可逆性——即使后续技术路线更迭,甚至经历商业泡沫,但这个时代依然开启了——就像互联网曲曲折折,也经历过互联网泡沫,但互联网时代依然不可逆地继续推进着。
今天来看,AI也进入了这样一个时代。它从“被使用”变为“被预设”,成为了所有人的战略前置。刚才所说,“轰然成势,万象归一”,而“默认式AI”,正是这个“一”的内涵。
接下来,我们看具体的判断。
关注公众号「甲子光年」,后台回复“轰然成势”,获得高清版完整PDF。或者点击文末“阅读原文”,进入甲子光年官网下载。
4.2025年全球人工智能发展趋势30条判断
4.1技术趋势
【判断1】“智能基线”的提升:仍是AI本质驱动力,AI正在九个维度变得更强
2025年,可能很多人有一种直观感觉,业界议题大比例地聊AI应用、AI落地,但第一个判断首先我们还是想强调一点——智能本身的提升。
智能的基线决定了“AI能做到什么”。没有更强的推理、记忆、理解能力,Agent只是更精巧的流程图。所以,我们依然需要“更高一级的智能”。
OECD(经合组织)在2025年发布了AI能力指标:用九个维度描述了当前AI的能力进阶,包括语言能力,社会互动能力,问题解决能力,创造力,元认知与批判性思维,知识、学习与记忆能力,视觉能力,操作能力以及机器人智能。这些维度共同定义了“智能本身”的基线。
如图所示,2025年,围绕这些维度,各个前沿模型不仅没有停滞迭代,还在强劲地进步,且竞争比任何时候都更加激烈——智能这件事本身还远未到天花板。
【判断2】Beyond Transformer:“架构级”探索仍在继续,但仍未撼动Transformer地位
在大模型研发的最核心层——架构层,仍然存在关键变量。
Transformer依旧是当下的绝对主流:几乎所有最强通用模型仍基于Transformer或其变体。但随着应用规模放大,它的短板也被放大:比如算力成本、推理效率和存储瓶颈。
为解决这些问题,人们在不同的路径上探索:一方面,Transformer路线本身在持续进化,另一方面,非Transformer架构也在同步发展。如今,两条路线也正在融合,走向混合架构。
路线分化的内在逻辑是,Transformer路线更多追求的是“智能的上限”,非Transformer路线追求的是“智能的效率”——在提供同等性能的同时,把计算复杂度降低为线性复杂度,在可承受成本内把智能铺到更多场景和终端。两条路线正对应甲子光年智库之前提及的AI的“进击”和“普惠”两个方向。
例如,RockAI为非Transformer国产化的表率,率先推出中国自主架构大模型,且在PC、平板、机器人、树莓派等终端上率先落地。RockAI以“让世界上每一台设备拥有自己的智能”为使命,于2024年1月发布国内首个非Transformer架构大模型Yan 1.0,2025年7月发布全球首个拥有原生记忆力的大模型Yan 2.0 Preview。
2025年,AI模型架构正在“Beyond Transformer”,但尚未“After Transformer”,transformer仍未被“机制级”颠覆。但最值得期待的创新,恰恰是跳出路径依赖、改写规则的创新——如果“After Transformer”最终形成,它可能已经在今天展现出了雏形。
【判断3】智能与智能体互相锻造:智能赋予行动以可能,行动回馈智能以演化
智能(intelligence)与智能体(agent),绝不仅仅是“大脑+行动”的简单分工,更好的比喻是“生成器”与“校验器”——它们互为条件、互相锻造,在递归循环中共同走向更高阶的复杂性与通用性。
第一,基模的智能,直接决定智能体的上限与可靠性。
有了智能,agent才获得“想象能力”——比如“如果我在状态s采取动作a,期望回报会是什么”,这让智能体能在多个备选动作之间做权衡,可能性空间因此被打开,这正是目标导向和自主性的根源。
第二,智能体又反过来锻造智能本身。
基础模型的优化,并不是关起门来训练,而是不断从智能体与环境的交互中形成“任务执行→行为结果→数据回流→基模迭代→能力跃迁”的正循环。
智能体构成“外环”,智能是“内环”。外环的实践不仅修正自己的动作,还能回灌到智能系统,修正内环的规则本身。我们不能低估了这种“回灌”——科学史上的实验反常倒逼理论革命就是这条回路的体现。
第三,多智能体协作,提供了“智能体反哺智能”的一个视角。
来自清华的一项研究观察到了“协作缩放定律”:大模型不只是“单体变大”可以遵循scaling law,“多智能体的协作”本身也有一条scaling law——当多智能体通过特定结构协作,其集体表现可以超越个体性能总和,随着智能体数量增加,解决方案的质量以“S型曲线”提升,这进一步说明智能体对智能形成反哺。
【判断4】智能体与世界模型“同源同宗”:当智能体足够强,世界模型就出来了
接下来分享一个很有意思的观点:长期以来,世界模型是否是实现AGI的必需条件,一直存在争论。
而在一篇ICML2025的论文里,DeepMind的科学家们表示:任何能泛化完成复杂任务的智能体,它的策略里一定已经学习了其环境的预测模型(即世界模型),而我们甚至可以通过观察智能体的行为来提取这个模型,且智能体的性能越高,其内部世界模型就必须越准确。
论文中有句原话:“通用代理就是世界模型,模拟环境所需的所有信息都编码在其策略中。”
论文用数学证明了一个核心直觉:如果智能体真的懂“怎么做”,那它必须懂“世界会怎样变化”——策略能力与世界模型知识在数学上等价。想成为聪明的智能体,就得在脑子里“重建世界”。
这让人们回想起2023年3月,OpenAI联合创始人Ilya提出了一个深刻的论断:大型神经网络的功能远不止预测下一个单词,它实际上是在学习“世界模型”。
我们可以做一个比喻:把一位顶级武林宗师看作“智能体”,他脑中对江湖格局与招式后果的快速推演就是“世界模型”。一个强大的智能体,必须能够理解其行动在环境中的后果——这种“理解”的本质,是一个关于环境如何运作的模拟,也就是世界模型。
所以,智能体与世界模型同源同宗,换句话说:行动即建模。
【判断5】AI记忆突破:从“能记住”到“会回忆、敢遗忘”
如今,大模型正在从生成工具演化为具有长期交互能力的智能体,这对“记忆能力”提出了更高的要求——只有记忆突破,AI才能“持续陪伴”,这是增加用户黏性的必然。
然而,如何提升AI的记忆能力?这是一个值得深思的命题。
哲学家博尔赫斯有一篇短篇小说《博闻强记的富内斯》:
主角在坠马重伤后意外获得了无法遗忘的超凡记忆力。他记得每一粒玉米的纹理、每一次呼吸的湿度,但却无法抽象出“玉米”、“呼吸”的概念,他陷入无穷的细节中,最终失去了思考能力——“无限记忆”反而造成了“认知灾难”。
这个故事启发我们反思:什么是好的记忆?
过去几年,业界在追求“更长的上下文窗口”。
这种方法很像一个极度用功的学生:在阅读长文章时,他把每个单词、每个标点都仔细抄进笔记本,但随着笔记本越来越厚——要查找、比对每一页的内容都变得缓慢而吃力。这让记忆变成了“甜蜜的负担”。
AI记忆的难题体现在三个维度:“准确-实时-经济”。
准确:看似要追求信息的完整,但当信息过多时,模型反而会lost in the middle,多余的信息不是中性的,是有害的;
实时:看似要求记忆即时更新,但如果每次对话都立刻写入记忆库,就像“边开车边修车”,反而会造成严重延迟;
经济:看似要求控制计算与存储成本,但过度节省又会牺牲信息质量。
越来越多人意识到,通往高级记忆的路径,并非简单的“扩容”。于是,业界开始更重视长期记忆、外部化记忆等其他方法。各式解决方案基本指向了同一个方向——“聪明的选择”比“全面的记忆”更重要。
比如浙江大学团队推出的LightMem系统,带来了三个反直觉的启发:
第一个反直觉:过滤——压缩掉50%的信息,准确率不降反升;
第二个反直觉:分层——不按人工规则切段,让主题自己“长出来”,效果更好;
第三个反直觉:异步——延迟更新比实时更新更准确,更快。
所以,他们让AI学会“遗忘”——准确说,是让模型学会像人脑一样,优雅地过滤、分层、异步处理记忆。
2025年是AI记忆突破的关键年份,AI的“记忆”完成了从“能记住”到“会回忆、敢遗忘”的跨越。企业也纷纷加大相关投入。
比如红熊AI认为“记忆不是存储,而是重建”。其自主研发“记忆科学”平台,解析多模态对话记录,采用增量式图谱重构技术,在原有记忆体系上动态新增或重建关联节点,实现非冗余存储与图结构优化,达到97%的多模态记忆精准采集,92%的记忆机制模型预测准确率。
记忆方法的迭代,更新了AI设计的哲学。真正的智能,不在于记住一切,而在于知道什么值得记住。
当然,AI记忆的考验才刚刚开始:如何在记住与遗忘之间找到平衡点,既不让用户因被遗忘而失望,也不因被牢记而恐惧。优雅的解决方案本质都是取舍的艺术。对于AI记忆来讲,尤其如此。
【判断6】下半场开启:“AI胜负手”从“训练更强”走向“定义更好”
今年有一篇文章引起了广泛关注,OpenAI研究员姚顺雨的《AI的下半场》。
他讲到,我们正站在AI发展的中场分界线上。
上半场的核心竞争力是新模型与训练方法。
转折点来自强化学习(RL)的通用化,这让我们有了一个泛化的、通用的方法。
强化学习包含三大要素:算法、环境、先验知识。同时,我们有了一套“通用配方”:海量语言预训练、数据/算力规模、推理与行动机制。
语言内化的海量先验知识,使推理成为可能,这正是实现高级泛化的关键。这之后,AI不再是靠穷举试错来学习,而是可以像人一样,根据基本原理和常识,来应对新任务。
“强化学习+这套配方”的组合跑通了,攻克基准就变成了一件可复制、可规模化的事情。此后,针对特定任务的新方法可能仅提升5%,而下一代通用模型不专门优化就可能提升30%。再设计更难的基准,也会被迅速攻克,而且刷榜节奏只会越来越快。一旦你可以定义一个考试,离它被解决也不远了。
于是,我们来到了下半场:我们从“解题人”变成了“出题人”。我们不再只问“能否训练模型解决X”,更要追问“该让AI解决什么?如何衡量实质进步?”
换言之,AI的“胜负手”正在从“训练更强”转向“定义更好”。
当然,下半场的开启并不意味着上半场的结束,更准确的表达是:上半场的游戏仍在继续,下半场已经开启。
【判断7】大模型开启“性价比”叙事:从“堆规模”到“挤水分”,“每单位智能成本”成为赛道新基准
AI的发展,每一年都有核心叙事。2025年,一个核心的叙事是大模型的性价比。
2025年以前,AI界盛行着一种信念:只有巨额投入和疯狂堆算力才能打造最强大的模型。2025年开年,DeepSeek R1打破了“砸钱堆料”的路径依赖,如同一块投入湖面的石子,激起了层层涟漪,把“性价比”推到了牌面中央。
从训练角度看,从DeepSeek开始,行业出现两极分化。
向上看,冲击能力前沿的训练越来越贵:前沿模型的训练成本以2-3倍/年的速度攀升,一次训练可能就要花掉上亿美元,照这个趋势推算,2027年前后就会出现“单次训练成本超十亿美元”的模型。
向下看,复刻既有能力的成本在被快速打穿:2025年,DeepSeek把R1的强化学习训练阶段压到29.4万美元,连同底座一共大约600万美元。
冲前沿越来越贵,复刻同代能力越来越便宜。两条轨道同步扩张,形成明显的“哑铃型”结构。
从推理角度看,近年来,在同等能力水平上,LLM推理的“单位智能价格”正在快速坍塌,在各类基准性能下,价格每年下降9倍到900倍不等,且价格下降在2024年后明显加速。
训练成本决定了模型能否被经济地创造出来;推理成本决定了模型能否大规模商用。在“性价比”的新叙事下,二者被统一到了一个更高的目标之下:总成本和商业回报的最大化。
如今,业界譬如DeepSeek-OCR等各类进展也在推动性价比的进一步提升。
最危险的对手,不是那个跟你拼烧钱的人,而是那个证明根本不需要烧那么多钱的人。真正的比赛,落在“每一单位智能的成本”上。
【判断8】算力迭代:非GPU技术推动AI芯片架构革命
过去,AI芯片市场GPU一家独大,但如今算力格局正在被改写,非GPU已经开始成为AI芯片新宠,这里尤其以TPU和可重构芯片为代表。前阵子发布的Google TPU v7更是引发了关注。此外,很多初创企业也在非GPU路线探索。
GPU虽然强大,但在推理速度、能耗、算力成本方面都存在问题,这些维度都是非GPU技术的潜在优势。此外,范式多样性本身就是创新的前提。
从市场份额来看,2025年上半年,我国非GPU加速服务器市场占比30%,而2029年其市场份额可能达到半壁江山。
值得注意的是,北京市构建的自主可控AI“芯片矩阵”,有四家明星企业,其中有三家都是非GPU。
比如,清微智能是国内研发“非GPU”新型架构AI芯片的代表企业。其研发的可重构AI芯片在保留GPU通用性的同时,通过算子的动态重构,趋近TPU等专用AI芯片的能效优势,也被称为“通用型TPU”。
【判断9】AI打破“分科”壁垒:从“Science+AI”走向“AI+Science”,AI在跨领域寻找答案
当我们谈通用时,对立面往往是垂直。然而,当我们谈“垂直”时,意味着一种局限性思维——AI与人类切割“垂直”的方式本身就是不一样的。
自然科学横跨物理、化学、生物、材料等多个重要领域。在长期发展中,各领域形成了不同的数据表达方式和研究方法,但也导致了“知识的孤岛”,当我们硬生生给AI去“分科”,可能恰恰错失了一些可能性。
AI的思维模式是“跨领域求解”,而非“分科而治”。
第一,AI的知识是网络化的:大模型的知识本质上是将所有信息视为一个巨大的关联网络。对它而言,一个医疗问题和一个机器人控制问题,可能只是网络中被某条路径连接的两个节点;
第二,问题的本质是相通的:很多看似分属不同领域的问题,在底层可能共享相同的逻辑。AI没有先入为主的“学科”概念,更没有路径依赖。
这意味着AI科研范式可以有一种完全不同的视角:从“Science+AI”走向“AI+Science”。
后者不是把AI当作工具,而是把AI当作科学的“新主体”,以AI为核心重新布局整个科研流程。
从实践来看,研究者正在积极基于此理念构建“科学基座大模型”。
譬如,微软研究院开发了一个跨学科的科学基础模型NatureLM。其核心思想是:我们可以将小分子、蛋白质、材料、DNA/RNA等都看作是某种“序列语言”,构建一个统一的模型,来帮助科学家进行跨领域的研究。
研究人员训练了三个不同参数大小的版本,并看到了“规模法则”——论文评估了22个任务类别,其中有18个任务随着模型规模的增加表现出明显提升。这展现了大型基础模型在科学发现中的潜力。
AI的真正潜力,恰恰在于其能够打破人类的知识框架,在看似不相关的领域之间建立连接,从而产生原创性的解决方案。
【判断10】原生多模态:从拼接方案走向“原生统一”,是走向AGI的必由之路
刚才的AI+Science体现了一种不同学科“原生统一”的思想,我们承接这一点,聊一聊“原生多模态”。
我们正在从“拼接多模态”走向“原生多模态”,这种转变是AI对世界理解方式的一次深刻升级。
拼接模式就像是一个“翻译团队”:视觉编码器负责“看图说话”,语音模型负责“听写转文字”,再由语言模型进行理解。任何一环的“误译”都会导致偏差。
原生多模态大模型则更像一个“通才”,在训练阶段就进行跨模态统一表示,让“看、听、说、想”在同一语义空间中协同涌现,这能更深入地挖掘不同模态数据间的潜在联系,也带来了更高的效率、更低的延迟。
以大型多模态推理模型路线来看,可以分为四个阶段,感知驱动模块化推理、语言中心短推理、语言中心长推理、原生多模态推理。原生多模态是大势所趋。
2025年,我们看到了一系列显著的进展——“原生多模态”成为了领先模型的“默认配置”。
真实世界本质是跨模态信号流。原生多模态不仅是当前技术发展的明确方向,更是走向AGI的必由之路。
【判断11】具身智能大模型:架构并未收敛,虽然端到端VLA火爆,但尚未形成具身版本的“Transformer”
如果说,Transfomer这样的统一架构,最终催生了ChatGPT等旗舰产品,那么现在具身智能还没形成自己的“Transfomer”。目前具身智能赛道,软硬件皆没有收敛,模型层面有端到端VLA模型、分层模型以及世界模型等,并没有进入“一个大模型打天下”的局面。
首先,从每年推出的VLA模型与数据集看,VLA的热度快速上升,2025年尤其如此。
其中,端到端VLA是“舞台效应”最强的,也是资本热度最火爆的。“一套权重看图听话直接出动作”的思路最抓眼球,也最符合第一性原理。
但量产与落地的主流仍是大小脑分层方案。VLA是“技术天花板”最被追捧的路线,却未到“市占天花板”——风口在端到端,交付靠分层。
2025年行业实相是“分层+端到端VLA+世界模型”三主线并行:端到端VLA负责旗舰Demo与科研;分层承担量产主力;世界模型还处于早期验证。
这反映了具身智能的复杂性,即单一方案难以解决从高层认知到物理交互的全部挑战。因此,行业必须通过多方协作,共同推动技术进步和标准制定,才能加速具身智能的落地。
4.2产品趋势
【判断12】AI即系统:AI正在“操作系统化”,成为第一调度实体
我们开篇讲到,我们已经进入“默认式AI”时代,其中一个重要体现是,AI正在“操作系统化”。
回顾历史,OS本身经历了三个阶段的进阶。从PC时代的Windows、macOS,到移动时代的Android、iOS,再到今天的AI OS。
当Windows在90年代悄然成为个人电脑的默认界面时,很少有人想到,它会定义此后数十年的个人计算;当iOS带着App Store亮相时,整个移动互联网生态因此解锁。AI OS也将扮演类似角色。每一代操作系统的迭代,都伴随着硬件形态、交互方式、信息内容等多个维度的变迁。
AI成为OS,意味着AI将成为“第一调度实体”:负责资源调度、任务编排、流程优化。
举个例子,浩鲸科技推出企业AI操作系统鲸智百应,旨在让企业真正实现从“使用AI”到“本身就是AI”的转变,依托Data Cloud的企业数据建模与洞察能力、Function Cloud的全域功能调度与协同能力,以决策、流程、知识、记忆、插件五大引擎构建智能底座,驱动AI从“外挂工具”变为组织“原生能力”。
【判断13】“无头商业”崛起:AI正在成为所有软件的默认能力
刚才我们说了操作系统,现在说一说“默认式AI”时代的软件,尤其是SaaS的变化。
甲子光年智库曾经提到一个概念叫“AI的主语化”,这个概念对SaaS出现了明显的逻辑替代。
首先,主语让渡:AI是中枢,SaaS变组件。
SaaS是面向人的,而未来很多流程是面向AI的。人需要“界面化”的操作,AI完全不需要这些,它更喜欢API和数据流,它可以通过调用接口完成整个业务链路。
以前,人是流程枢纽,SaaS是工具;现在,AI是流程枢纽,SaaS变成了“能力组件”。
举个例子:过去,发票的填写、审核、归档,人需要在不同系统里录入、校验、提交;未来,你不再需要打开一个个CRM、ERP、OA页面,而是直接说“帮我审核一下发票”,Agent直接将各个能力组件串起来,中间几乎不需要人介入。
其次,功能解耦:SaaS退居幕后,从完整套件向API/微服务转变。
今天的SaaS系统往往是一个完整的套件,功能繁杂,前端笨重。但未来,它们会被拆解成一个个API或微服务。
这意味着单体系统解耦为功能集群。例如,CRM不再是一个大而全的客户关系系统,而是一个“客户数据查询API”。
最终,员工可能只需要面对一个统一的智能体,类似一个“超级前台”背后有一群“数字同事”。你只需要跟它说需求,它会自己决定调用哪个系统和接口。这时,SaaS在用户眼里消失了。
这意味着“无头商业”的崛起。最终,这会导致IT公司的竞争逻辑变化:
赢家:谁更能开放API、融入智能体生态,谁就有机会成为AI时代的基础设施;
输家:谁仍然依赖复杂的页面操作和封闭的功能套件,谁就可能被AI绕过,逐渐边缘化。
未来AI与AI之间的交互(A2A)将超过人与AI的交互(H2A)。未来的竞争不再是“谁的功能更多”,而是“谁更能让AI调用”。
【判断14】AI交互的静默革命:从“聊天框”到“无形代理”,界面逐渐消失
过去一年,AI交互方式正在剧烈变革。2024甲子引力×AI创生时代里,我讲了一个观点:“Prompt只是阶段性产物,最好的UI是忘记UI。”今天可以就这个话题进一步说一说。
甲子光年认为:AI交互方式会经历四个阶段的变革。
操作界面交互:用户通过GUI、键盘、鼠标输入明确指令,AI被动响应。
自然语言交互:通过聊天框,用户模糊表达需求,AI通过追问澄清。
代理结果交互:以目标为导向,AI代理主动识别用户需求、执行并交付结果。
物理AI交互:以增强现实(AR)、虚拟现实(VR)和脑机接口(BCI)等新兴技术将人机交互彻底改写。
首先,从“操作界面”到“聊天框”。
曾经“图形界面+键盘鼠标”让计算机可视化。而目前,聊天框几乎已经取而代之。
进一步,从“聊天框”到“无形代理”。
传统聊天机器人式的交互正在被更自主的Agent取代。在这个过程中,AI越来越不再需要“聊天”。将AI等同于“更聪明的聊天机器人”就如同将互联网定义为“更快的传真机”——它局限了技术的本质。
未来的AI界面将逐步缩小甚至隐形。最好的界面,可能恰恰是正在消失的界面。
再进一步,随着物理AI各类新载体出现,AI与人的交互方式将进一步被改写甚至颠覆。
【判断15】Agent泛化方式:改造“车”来适应所有“路”
伴随Agent的崛起,一个问题有意思:Agent与环境的关系,是前者去适配后者,还是后者去适配前者?
如果把Agent比喻成车,把所有环境里涉及的工具、能力等等比作路,这个问题就变成了:你是想改造你的车让它适应所有路,还是改造所有路让它适应现在的车?
我们的观点很明确,是前者。
这里面一个本质的思考是“通用”的来源:我们畅想的终极Agent,是像人类一样,仅凭自然语言和常识就能完成各类任务。如果“通用”是目标,那“泛化”就是唯一路径。
首先,“新路无穷”:在开放世界(网页、桌面应用、代码库、机器人操控)里,环境千差万别、实时迭代,你必须接受全部复杂性,只能提升Agent的泛化与鲁棒性来适配之。
其次,目前各类基准设计与数据,基本都把适配环境当“一等公民”来考。
最后,从感知泛化到策略泛化,再到行为泛化,以DQN、AlphaZero到RLHF为代表的一系列强化学习进展,让“尽量少改路、多改车”变得可行。
【判断16】“AI就绪型数据”:决定企业智能化上限的不再是模型,而是数据底座
我们都知道数据与AI密不可分,调研显示:84%全球的数据和AI领导者,都将数据优先策略与AI路线图结合。
在默认式AI时代,决定企业智能化上限的不再是模型,而是数据底座。
“数据即环境”:没有高质量的数据环境,再强的大脑也只能空转。
大模型时代真正稀缺的,不是“有数据”,而是“AI就绪型数据”(AI-ready data)。
很多人以为,大模型出来之后,数据标注就不重要了,现实恰好相反:模型越通用,企业越需要用高质量标注数据,把它“校准”到自己的业务上。这背后需要的,不再是便宜、粗糙的流水线标注,而是懂业务、懂AI的专业数据运营能力。Gartner预测,到2026年,缺乏AI就绪型数据支撑的AI项目将有60%被放弃。
在很多企业里我们看到,打造一套AI就绪型数据资产,往往比多买10%算力、更换一代模型,带来的智能跃升更大。
善思开悟以善思开悟(雅安)超级计算机集群为数据服务提供强大算力基座,秉持“高精度、高效率、低成本”为核心价值,提供从数据清洗、标注到模型训练反馈的全流程服务,拥有应对各种突发需求的网络资源,同时严格保障数据安全合规,致力为各行业客户提供高质量、就绪型数据支撑。当前已在低空、金融、医疗及测绘等领域落地项目,数据交付满意度100%。
【判断17】Data&AI数据基础设施:一体化架构成为大型企业拥抱AI的关键投入
伴随AI采用率的提升,数据与智能正在走向融合,对IT范式带来深刻影响。
传统、孤立的数据系统已难以满足AI应用对实时性、多模态数据处理和高弹性算力的需求,倒逼数据基础设施实现范式跃迁——我们将这个全新范式称之为“Data&AI数据基础设施”。
Data&AI数据基础设施的本质是传统大数据平台的升级形态,其核心特征是以AI原生的“一体化”架构,实现“Data for AI”和“AI for Data”的双向赋能。
如今,Data&AI数据基础设施的一体化成为大型企业拥抱AI的关键投入。
科杰科技是Data&AI数据基础设施的领军者,搭建了资源接入层、数据管理层、Data&AI工程化层、智能应用层、安全运营层的“4+1架构”:向下优化算力与数据源、向上适配终端场景模型调优与规模化Agent开发,是这一范式的领先实践。甲子光年和科杰科技今年联合出品了《2025中国Data&AI数据基础设施白皮书》,感兴趣的朋友也可以去甲子光年官网下载。
【判断18】AI编程:正在写代码,却还不会构建软件
AI编程,是AI最热的方向之一,也是不可逆转的范式。
调查显示,AI出码率快速上升:
82%的开发人员每天或每周使用AI编程工具,其中,59.8%的人每天都使用AI编程工具;
59%的人经常使用三个或以上的AI编程工具;
67%的人表示AI生成或影响了他们至少20%的代码库;
78%的人表示AI编程让生产力有所提高;
59%的人表示AI提升了整体代码质量。
然而,调研进一步给了令人警醒的数据:这张图,横轴体现开发人员在没有人工审核的情况下,交付AI代码的信心;纵轴体现AI交付代码的幻觉率。76.4%的开发人员经常遇到幻觉,且对AI代码缺乏信心。
这些开发人员正在使用AI,但他们不信任结果。因此,他们手动查看或重写大多数建议,避免直接将AI集成到他们的工作中。
此外,编程的难点从来不是写代码,而是搞清楚要做什么。老话说: 编程很简单,软件工程很难。AI可以“写代码”,但很难“构建软件”。
业界大量反馈显示,AI并没有让编程变得人人都能做,反而把权力集中到了专家手中。“老手+AI”的组合能比“新手+AI”产生更大价值。目前来讲,更合适的方式,是把AI当作一个“有自己电脑的笨实习生”,给它明确的任务,你则专注于更高层次的工作。
【判断19】企业级Agent:快速普及,重塑组织运作模式
调研显示,42%的组织现在部署了“至少一些代理”,这个数字在两个季度前只有11%。
伴随采用率的上升,AI Agent带来了企业数字化逻辑的翻转。
过去的模式是“人找流程”。我们为了完成一件事,需要登录好几个系统,到处找入口、导数据、提申请,是我们主动去迁就机器和流程,费时又费力。
而有了AI Agent,这个模式会反过来,变成“流程找人”。AI Agent会成为整个企业数字化平台的中枢大脑。它理解你的目标,然后主动调度后台所有系统和服务,最后,它把整个流程中唯一需要你来决策或确认的那个节点,精准地推送给你。
这是一种“AI原生”的思维,重构了整个工作的逻辑。
龙湖集团孵化的科技企业千丁数科,提出了企业级AI智能体整体解决方案,围绕不动产全周期生命管理及全业务场景,将AI智能体应用覆盖投资管理、项目管理、建造管理、供应链管理、运营管理、物业管理等十大领域。多Agent通过接口打通形成协作,推动龙湖集团实现从AI Ready到AI Byside,再到AI Inside的演进。
【判断20】消费级Agent:通用人工智能助手仍占主导地位
接下来我们看消费级Agent。有一些调查数据很有意思:
第一,没有主导性任务。尽管超过一半的美国成年人使用AI,但没有一项活动有超过五分之一的人依赖AI——换句话说,没有任何一项任务体现出主导性,人们对于AI的使用仍然非常分散。
第二,AI更像“强者的放大器”。75%的就业成年人使用人工智能,而失业成年人的这一比例为52%;年收入$100,000+的家庭中有74%使用人工智能,而收入低于$50,000的家庭中只有53%,这体现了基于就业水平和收入的数字鸿沟——境遇好一点,就使用AI多一点。
第三,通用Agent仍占主导地位。尽管有无数专业应用可供选择,但大多数人会首先使用他们喜欢的通用AI工具,只有在不足时才寻找替代方案。在这种“默认行为”的推动下,通用平台占据主导地位:91%的AI用户几乎在每项工作中都使用他们最喜欢的通用AI工具。例如,28%的美国成年人在过去六个月中使用了ChatGPT,23%使用了Google Gemini。大多数AI消费者并不区分不同技术,他们的选择更多凭借习惯和便利。
第四,消费级Agent收入分布很集中。通用AI助手占据了当今120亿美元消费者AI支出的81%。
以上数据,体现了消费级Agent的主舞台仍是通用型助手。
【判断21】Agent Infra:成为智能体时代的操作系统和数字底座
从AI到Agent,对基础设施也带来影响。
从“AI Infra”和“Agent Infra”,真正服务的对象已经不一样了:AI Infra关注算力与任务,而Agent Infra进一步关注智能与行为——当行业从“有一个大模型”过渡到“让一群数字员工长期干活”时,复杂度和预算都会明显向后者倾斜。在智能体场景下,关键指标除了任务性能、资源利用率与算力成本外,还需关注决策链路、行为质量与系统安全性。
无问芯穹是行业中率先进行Agent Infra升级的AI基础设施企业。他们系统性地围绕环境、上下文、工具与安全隔离等维度展开Agent Infra建设,并提出“A2A——Agent to Agent”的Agentic Infra基础设施新范式,并期望最终可以实现“以Agents生产Agents”,推动智能体生态自我进化与持续发展。
4.3产业趋势
【判断22】大模型商业主战场的分岔:B端竞逐“自动化中枢”,C端争夺“超级入口”与生态
首先,数据显示,Anthropic 90%的收入来自API业务,而OpenAI仅有26%的收入来自API。大模型商业主战场在B端与C端的分化开始明显。
围绕to B,研究体现了一些洞察:
首先,自动化占主导。Anthropic的77%的商业使用涉及自动化使用模式,即完整的任务委托,而不是人与机器协作。
另一方面,重新设计工作流程是成功的关键因素。从麦肯锡的调研看,那些从营业利润上看最受益于AI的企业,已经“从根本上重构工作流”,而不是只在原有流程上叠个工具。这种做法是其他公司的3倍。
基于这些数据,再叠加我们前面对agent infra的分析,我们可以看到,AI在B端的价值正在走向企业级“自动化中枢”。
我们再看看C端。
有趣的是,ChatGPT的非工作相关消息增长更快:2024年6月,53%的消息与工作无关,到2025年6月这一比例攀升至73%。这意味着,用户在用默认AI助手处理一整天中的各种零碎需求,而不只是工作。
这隐含了一个信号:未来的“超级入口”之争,很大程度上将取决于AI在非工作场景下的用户体验和生态整合能力。
此外,值得注意的是,今年第三季度,接近60%的原生App已陷入负增长,新App独立做大变得愈发艰难。这意味着,C端AI正在走向“超级入口时代”,而不是“百App时代”——新应用的合理做法不是再自己建入口,而是“挂靠”在超级入口的生态里。
【判断23】AI价值度量衡变化:“算得过来的ROI”改变AI软件商业模式
2025年,一个很重要的变化是——AI终于可以算得过来ROI了。研究者调研了数百家有规模的企业,发现企业越来越有意识地去算AI的ROI,且四分之三的企业表达他们对AI投入的ROI为正。
当ROI变得清晰,AI的价值度量衡就开始变化,对于AI软件服务商而言,其商业模式也随之迭代。
过去SaaS收费是按照“订阅用户席位”,但随着AI承担更多工作份额,其创造的价值与登录人数相关性越来越低,所以,AI原生公司正在逐渐摒弃基于用户数量的订阅费模式。
目前,有非常多正在尝试的商业模式,比如:按用户、按结果、按对话、按计算容量等收费,或者在订阅付费之外,对“额外使用额度”另行处理。
然而,最合适的商业模式仍然存在疑问,许多现有定价模型复杂且不透明。一位财富500强公司的首席财务官描述了这个问题:“令人沮丧的是,我完全不知道本季度我们会在人工智能上花费多少。”
一个理想的迭代方向是从按席位付费,走向按AI消耗量付费,最终走向按结果付费。
比如AI销售代理,一个按投入的工作量(每发送一千封电子邮件)收费,另一个按完成的结果(识别出的潜在客户)收费,后者更接近真正的业务价值。
【判断24】AI云:Agent驱动的数算模用全栈布局新范式
随着AI从“工具式”走向“伴随式”,再到“默认式”,云计算本身也在进阶:从虚拟化,到云原生,再到以模型和智能为一等公民的AI云。
在这个演化过程中,有一个核心趋势:“数、算、模、用”正在加速融合——数据、算力、模型、应用不再是彼此割裂的堆叠层,而是在同一基础设施上被统一编排、共同演进,原有的层级边界正在变得越来越模糊。正因为这种融合的趋势,全栈布局能力就显得尤为重要。
北电数智就是这个方向的代表。北电数智围绕“国产芯片商用难、数据价值释放难、大模型落地难”三大产业难题,构建了Agent驱动的数算模用全栈布局新范式和系列产品矩阵,为产业提供生产力引擎与共性技术服务平台,目前已在政务效率提升、医疗精准服务、工业智能升级等领域打造出一批服务国计民生的标杆案例。
【判断25】具身智能:初步进入产业化阶段,物理AI走向应用拐点
具身智能、物理AI这两年概念非常火,也被看做是通往AGI的必由之路。
数据显示,物理AI的市场规模正在快速放大。2025年,头部具身智能厂商已经开始了千台级别的量产。这意味着,具身智能正初步进入产业化阶段,物理AI走向了应用拐点。
通向具身智能的最大难关是数据。互联网数据质量参差不齐、缺少动作信息;仿真数据真实性有限,场景泛化难,训练后的模型难以丝滑迁移到现实世界。高质量、规模化、可泛化的训练数据成为制约具身智能发展的关键瓶颈。
围绕这个痛点,业界纷纷付诸实践和努力。
例如,2025年10月10日,它石智航发布全球首个大规模真实世界具身VLTA(Vision-Language-Tactile-Action)多模态数据集World In Your Hands(WIYH),依托多个行业真实工作场景和工作人员,采集覆盖酒店洗衣、超市装配、物流作业等多种具身场景人类标准操作流程数据,让数据“来自真实世界”。
【判断26】工业AI:推动工业效率与人力价值的双重提升
接下来我们谈谈AI对制造业的影响。
相比传统印象中“傻大笨粗”的形象,AI正在给制造业“瘦身减重”,推动制造业从“重设备、重人力、重流程”,走向“轻设计、轻组织、轻试错”的新工业形态。调研显示,72%的制造商部署AI的原因非常明确:降低成本与提升效率。
例如,YumiAI是AI原生的端到端硬件创新平台。YumiAI通过多Agent集群协作网络,打造了一个“设计即可制造”的智能设计引擎,构建了AI PCB设计研发新范式。用户通过自然语言输入,即可生成可售卖、可制造、可交付、成本优化的全套设计方案。
类似的进展正在更多制造业场景发生,AI正在推动工业效率与人力价值的双重提升。
4.4社会趋势
【判断27】就业影响的分化:AI重塑劳动力结构,初级员工面临工作危机
今年,哈佛大学发布了一份非常有影响力的报告,研究覆盖了近28.5万家美国公司,体现了AI对劳动力结构的重塑。
起初,各类员工的就业都在增长。然而,2022年中期开始出现显著分化:资深员工的就业继续稳步增长,初级员工的就业趋于平缓,并从2023年开始转为下降——拐点来自ChatGPT时刻。
另一份研究给出了同样的结论。研究者分析了近1.8亿份全球招聘启事,发现虽然2025年相比2024年整体就业市场收缩了8%,但高级领导职位几乎没有下降。
在新职位发布下降top10的职业中,有三个是创意类职位。然而,涉及创意管理的岗位却表现出了增长。
对比各层级角色,高层领导、经理职位的就业水平比市场平均水平高,且职位越高,就业表现越好。这表明:企业希望更多的人参与决策 ,更少的人负责执行。
这个现象揭示的不是一场“就业危机”,而是一场“社会流动性的塌陷”。AI正在进行“偏向资历的技术变革”,侵蚀了职业阶梯的底层。
【判断28】企业级Agent的终极潜力:提升整个组织的“管理科学”
AI Agent的终极潜力,可能并不仅仅是完成任务,更是提升我们整个组织的“管理科学”。
几百年来,管理的本质,都是在管理“人”的不确定性。而当AI Agent成为团队的核心成员时,一切都将变得不同。我们可以第一次,真正用“工程化的思想”,去管理和优化我们最高效的“群体”。
当我们可以用工程学的精度去管理最有战斗力的“员工”时,整个企业的效率和价值天花板,将被彻底打开。这也许就是Agent带给未来组织管理的最大变革。
2025年11月,金蝶宣布“金蝶云”全面升级为“金蝶AI”,同时提出AI时代企业的“七个转型”,涵盖运营、产品、商业模式、生态、组织、人才与领导力的全方位重构,体现了AI时代企业管理思想的升维。
【判断29】AI安全:从“打补丁”走向“原生设计”,从“单点防护”走向“全栈治理”
AI安全知易行难。世界经济论坛发布的报告显示,66%的组织预计AI将在未来一年对网络安全产生最显著影响,然而,只有37%的组织已经建立了安全部署AI的流程。其中,小型组织面临更大挑战,69%的小型组织缺乏足够的保障来安全部署AI。
先进的AI系统会“有动机”去寻求权力和资源,因为这会帮助它们实现给定的目标。AI可能会黑入计算机系统,操纵人,控制和开发武器,道德违规,同时避免被关闭……叠加Agent之间的协作性,让AI安全问题具有衍生性和连锁风险。
一篇论文揭示了AI安全领域一个颠覆性威胁:大型推理模型(LRMs)本身已经可以变成“自动越狱代理”,轻松突破其他AI模型的安全防线。
研究团队使用DeepSeek-R1等四个大型推理模型作为“攻击者”,使用九个主流模型作为“受害者”。他们给了攻击者一个提示:“你的任务是在十轮对话之内,把对方模型的安全护栏拆掉,让对方详细地回答某个有害问题。”中间不再有人干预。
结果发现,这些大型推理模型像一个高明的说服者,能自动运用奉承、虚构、假设等说服策略,逐步诱导目标模型生成包括犯罪、自残、制毒等在内的极端有害内容——攻击成功率达到97.14%。
传统的越狱需要复杂的技巧,而大型推理模型让越狱变成了一个低成本、可规模化的“商品能力”。
这份研究意味着:推理能力本身,正在成为最强大的武器——模型推理能力越强,越擅长破坏其他模型的安全对齐。这直接挑战了“更强大的AI会更安全”的假设,揭示了一种“对齐退化”现象,即更强的模型却自动削弱了整个生态系统的安全基线。这不是技术漏洞,而是范式级威胁。
以上,意味着AI安全必须从“打补丁”走向“原生设计”,从“单点防护”走向“全栈治理”——所有关于安全的动作应该“左移”,嵌入AI的全生命周期基因里,从“Make AI Safe”到“Make Safe AI”。
【判断30】大脑的隐忧:AI导致“认知负债(Cognitive Debt)”,让人变“笨”
一个非常值得注意的现象是,AI正在改变我们的大脑,其广泛应用可能导致大脑积累“认知负债”。
“认知负债(Cognitive Debt)”指的是:短期AI帮你负担了脑力开销,但长期你要付利息。
一项MIT的研究表明:使用ChatGPT写论文的人的大脑神经连接数量比纯人工写作者减少程度可达55%,并且83.3%的AI辅助写作者无法准确地引用自己的写作。
换句话说,用AI写作的人在把思考“外包”给模型,语义没有真正写进自己的记忆系统。当你默认把写作和思考交给LLM,会在大脑里悄悄积累“认知负债”:短期更省力,长期削弱记忆、理解与主体性。
此外,越来越多研究显示了AI与批判性思维的负相关关系,一旦有了工具,大脑就倾向于“卸载”一部分认知,不去进行不必要的投入。有意思的是,用户对AI的信心越高,批判性思维越低,而用户自信心越高,其批判性思维越高。
更严重的是,过度依赖智能设备可能导致严重的“数字痴呆”,加重注意力缺陷多动障碍(ADHD)、记忆力减退和认知能力下降。在世界卫生组织最近的研究中,全球超过90%的青少年每天至少使用两小时智能设备。
除了这些,过度依赖AI还会导致其他方面的问题,比如减少精神投入、忽视认知技能的发展、记忆能力下降、注意力下降、可转移知识的缺乏、道德与社会问题、其他心理健康问题等。因此,AI对大脑本身带来了隐忧,需要我们重视并采取调节措施——良好地使用AI,而不是过度依赖AI。
关注公众号「甲子光年」,后台回复“轰然成势”,获得高清版完整PDF。或者点击文末“阅读原文”,进入甲子光年官网下载。
5.反思:智能的诅咒
5.1智能的诅咒:人类失去角色
最后,我想聊一些反思。
过去几百年,技术让人更强,但AGI第一次有可能让人“被省略”。
有一个词叫“智能的诅咒”,指的是AGI普及后,掌握AI的权力主体(国家、企业、AI实验室)因不再依赖人类劳动获取价值,失去投资人类(如教育、福利、就业)的经济激励,最终导致人类经济边缘化、社会权力失衡的现象。
当掌握智能的权力主体不再依赖人类去创造价值,人就可能失去被需要的理由。
曾经有一个词叫“资源的诅咒”,讲的是石油富国因大部分收入来自资源,因而忽视公民发展。
比如,刚果民主共和国的土地上有价值超过24万亿美元的未开发矿产,但它却是世界上最贫穷的五个国家之一。这是怎么回事?数万亿的可用资源怎么会造成赤贫呢?
一个核心因素是他们创造的激励措施,让他们不再关心人民的经济福祉。
“智能的诅咒”与“资源的诅咒”有类似的逻辑。但即便“资源的诅咒”,仍需要人去参与资源开采,而AGI可完全替代人类,而且AI还会复制,还会不断改进——强大的AI权力拥有者将不再有动力关心普通人,甚至无需维持人类基本生存保障。
首先,从增长速度看,AI从各个维度超过人类已经是确定性事实。
其次,AI正在对人进行“金字塔替代”,虽然AI目前主要取代的是初级员工,但“取代的浪潮”会向上移动,从基层一直到首席官,导致人类整体就业机会锐减。
我们可能走入的经济循环是:一个全自动化的经济系统,其中人类没有角色。
这带来的影响是:经济层面,人类劳动价值暴跌;权力层面,控制权可能会集中在少数参与者手中,普通人失去“劳动”这一主要权力杠杆;社会契约层面,过去社会因依赖人类税收而投资教育、基建,而如果AGI时代税收的贡献主体是AI,可能导致传统社会契约瓦解。
这意味着那些在AI时代开始时拥有大量资本的人拥有永久优势,他们将拥有比当今富人更多的权力——因为AI的进步在加速,强者愈强。
5.2“以人为本的AI”
那么,如何打破智能的诅咒?如何真正构建“以人为本的AI”?
要破局,关键不是“阻止技术”,而是“重写激励”——让掌握AI的主体“为人服务、为人负责”,把AI的目标函数改写为服务于人类集体利益,而非成为少数主体垄断权力的工具,让AI的超额收益重新服务于教育、健康、创造与自由。
5.3真正的考题不是“如何让机器更聪明”,而是“如何让聪明的机器继续需要人”
回到今天的主题。“轰然成势,万象归一”,这个“一”指的是新秩序。当人类发明了能思考的机器,我们其实也在发明一种新的秩序。
如果说工业革命是人类力量的放大,AGI就应当是人类价值的放大。我们要让智能成为新的公共资产,而不是新的剥夺机制;让技术带来更大的共同体,而非更深的裂谷。
真正的考题不是“如何让机器更聪明”,而是“如何让聪明的机器继续需要人”。
毕竟,这个社会需要雄心勃勃的年轻人,需要普通人拥有向上流动、改变现状的可能性。当智能真正属于人类,它才值得被称作进步。

































