AGI 被赋予太多期待。在企业数字化的叙事里,它常被描绘为终极解方:自动运维、自主决策、无人干预。
但若剥离修辞,回到逻辑起点,一个事实清晰如刃:
AGI 的能力,严格受限于其所能接触的知识形式。
它无法处理未被表达之物。
它不能推理未被建模之关系。
它更无法介入那些本质上拒绝形式化的领域——
组织中的信任分配、风险的政治性、责任的模糊边界。
这些,构成了 AGI 在企业中的硬性天花板。
而地板,并非由算力或模型参数决定,
而是由我们是否构建了一个可被机器理解的世界模型所奠定。
过去十年的大数据平台,积累了海量信号,却未能回答一个简单问题:
“此刻系统处于何种状态,为何如此,应如何应对?”
因其缺乏本体——缺乏对实体、关系、规则、行为的结构化表达。
于是,AGI 落地的真实空间,被压缩至天花板与地板之间。
RAG 曾试图用文档填充这一空间,但文本无法支撑行动。
今日的工作流范式之所以有效,正因它建立在本体论提供的确定性骨架之上:
主模型定义世界,规则模型编码因果,观测模型提供上下文,事务模型记录行为。
AGI 不再凭空生成答案,而是在受控结构中调用、推理、建议。
这并非技术的退让,而是理性的回归。
真正的智能,不在于幻觉般的全能,
而在于在可知范围内,做到极致可靠。
企业无需追求 AGI 的极限,
只需确保:
凡可形式化者,皆已建模;
凡可自动化者,皆有闭环;
凡不可编码者,仍由人守。
天花板:AGI 有边界,社会关系不可编码
AGI 的能力常被误认为无界。但在企业核心业务中,其作用域自始受限—
并非所有知识都可被形式化,亦非所有决策都可被算法化。
技术系统能描述“链路中断”,却无法判断“此刻是否应启动应急预案”;
智能体可推演“PDU 掉电影响范围”,但不能权衡“上报节奏与声誉风险之间的张力”。
这些判断,不源于数据,而植根于组织内部的社会关系网络:
谁掌握话语权,谁承担最终责任,何种失误可被容忍,何种沉默即是默许。
它们无法被写入规则模型,亦不能通过工具调用获取。
因其本质,是人与人之间未言明的契约,而非人与机器之间的接口。
这构成了 AGI 在企业中的硬性天花板。
它可处理因果,但无法介入权责;
可优化效率,但不能定义价值;
可执行指令,但不能承担后果。
一旦试图跨越此界,系统便从辅助退化为幻觉,从增强滑向失控。
Palantir 的实践之所以有效,并非因其拥有更强的模型,
而是因其清醒承认:本体论只覆盖可计算的知识层。
其余部分,仍需由人守护。
因此,企业的目标不应是让 AI 做更多,而是将可形式化的部分,尽数转化为结构化资产,
从而在天花板之下,最大化机器的确定性贡献。
剩余的模糊地带,则交还给人—不是作为替补,而是作为不可替代的最终判断者。
AGI 的价值,不在突破边界,
而在精确识别边界,并在其内做到极致可靠。
地板:本体论建模才是真基础
AGI 的表现,常被归因于模型本身。
但真正决定其可靠性的,是其所依赖的数据基底。
过去十年,企业构建了庞大的数据湖与数仓,存储了海量日志、指标与事件。
然而这些数据多为原始信号,缺乏语义关联,无法支撑因果推理。
当 AI 被问“为何支付网关延迟升高”,它面对的不是一张可理解的拓扑图,
而是一堆孤立的时间序列、割裂的日志片段、未对齐的设备标识。
在此基础上生成的答案,无论语言多么流畅,本质仍是猜测。
真正的转折,在于承认:AGI 需要的不是更多数据,而是更好的组织方式。
这便是本体论(Ontology)的核心价值—
它不追求存储规模,而致力于对世界进行结构化表达:
哪些是实体,它们如何关联,何种规则支配其行为,何种状态构成异常。
在银行网络运维中,我们可以将其具象为五类模型:
主模型,定义设备、业务、供电、链路的静态关系;
规则模型,编码“PDU 掉电应抑制下游告警”等因果逻辑;
事务模型,记录变更、工单、割接等行为对状态的影响;
观测模型,融合 Metrics、Tracing、Logging,形成带语义的实时上下文;
报告模型,沉淀 MTTR、根因分布等反馈,驱动知识进化。
这五类模型共同构成 AGI 的常识库与感知层。
没有它,AI 只能基于模糊关键词拼凑答案;
有了它,AI 才能在确定性骨架上进行受控推理。
这不是对大数据平台的否定,而是对其目标的升维:
从记录发生了什么,转向表达世界是什么样子,并支持下一步行动。
地板抬高一分,AGI 的可靠性便增加一寸。
而所谓打好基础,无非是回答一个问题:
我们是否已将专家脑中的隐性知识,转化为机器可读、可调、可验证的显性资产?
若答案是否定的,那么任何关于 Agent、工作流或自主决策的讨论,
都不过是在流沙之上搭建楼阁。
中间层腾挪:工作流是当前最大红利
天花板已定,地板可筑,
二者之间的空间,便是 AGI 在企业中可行动的场域。
2025 年初,RAG 曾被视为捷径—将文档喂给大模型,便以为其懂了公司。
但实践很快揭示其局限:文本无法支撑行动,检索不能替代推理。
真正的突破,来自范式的转换:
从让 AI 知道,转向让 AI 做事。
这催生了智能工作流的兴起。
它不依赖模型内化全部知识,而是通过外部工具调用与多步规划,在结构化世界中执行任务。
当用户提问支付为何变慢,Agent 不再生成一段解释,
而是依次:
调用主模型,获取支付链路拓扑;
查询观测模型,发现 F5 会话表突增至阈值;
匹配规则模型,识别近期 ACL 变更导致策略爆炸;
生成建议:清理会话表,低风险操作;
推送至 ITSM,等待人工确认执行。
每一步皆基于权威系统,每一环均可审计回溯。
AI 不是决策者,是受控的协调者;
人不是旁观者,而是保留最终裁量权的操作主体。
这种架构之所以有效,正因其严格限定于本体论所覆盖的范围之内。
它不试图理解是否该升级事件,只回答若按现有规则,应如何处置。
它不预测组织反应,只执行已编码的因果逻辑。
当前最大的红利,不在模型微调,不在算力堆砌,
而在将高频、高痛、高确定性的场景,封装为可复用的智能工作流。
PDU 告警收敛、防火墙 CPU 异常、BGP 闪断分析……
这些场景未必宏大,但一旦闭环,便能切实降低 MTTR、减少人工干预、提升响应一致性。
AGI 的价值,从来不是取代人类,
而是在可知、可控、可验的边界内,将专家经验规模化复用。
中间层虽有限,却足够广阔—足以容纳我们接下来三年最务实的努力。
务实前行:做时间的朋友
AGI 的浪潮不会退去,但喧嚣终将沉淀。
当概念的泡沫消散,留下的不是模型的大小,而是系统是否真正可用。
在银行这样的高可靠、强合规环境中,智能化从来不是一场技术突袭,
而是一次缓慢而坚定的工程演进:
—先厘清边界,知道什么不能做;
—再夯实基础,确保能做的部分足够可靠;
—最后,在有限空间内,把闭环做实。
不必追求无人值守,那是一种危险的幻觉;
也不必恐惧被替代,真正的专家价值恰在边界之外。
我们的目标,应是构建一个人机协同的增强系统:
机器处理确定性,人类应对模糊性;
机器执行规则,人类定义规则;
机器提供选项,人类承担选择。
这条路没有捷径。
它需要耐心梳理 CMDB 中的供电链路,
需要将老师傅口中的“经验”转化为可复用的规则,
需要在每一次故障后,把根因沉淀为报告模型的一部分。
AGI 不是终点,而是工具。
它的意义,不在于展示智能的极限,
而在于暴露我们对自身世界的理解有多清晰,或多混乱。
所以,不必等待完美架构,也不必迷信最新范式。
从下一个告警开始,从一条规则开始,从一次可验证的自动建议开始。
在天花板之下,地板之上,
把地基打得再实一点,把路径理得再清一点,把手边的事,做成。
荀子说:“不闻不若闻之,闻之不若见之,见之不若知之,知之不若行之。”
AGI之要,终在行,一次闭环胜过十次讨论。
时间会奖励那些清醒而务实的人。