数据科学团队推出了亮眼的生成式 AI 试点项目,92% 的准确率令高管们拍手叫好。然而当它接触到企业真实数据时,准确率暴跌至67%。客户在使用过程中纷纷中途放弃,项目在第三季度宣告死亡。
我见证了这种模式在数十家组织中重复上演。路线图野心勃勃地启动,预算烧掉数百万美元,但价值却从未在损益表上体现。
真正的问题无人提及
AI 项目失败并非因为模型不好,而是因为底层基础设施已经崩坏,而领导层在审批项目时没有先问出关键问题。
当数据分散在各个孤立系统中,没有人负责从试点到生产的整个流程,当"我们稍后再解决治理问题"成为既定政策时,失败就是唯一的结果。三种模式证明了这一点:
模式一:无人提出的关键问题
如果有人在观察,警告信号会很早就出现。
营销部门的客户数据与运营部门使用的不匹配。财务部门拒绝接受这两种架构,维护着自己的版本。在 AI 团队开始用客户数据训练模型之前,没有人协调过这个问题。
为月度报告而构建的系统突然需要在毫秒内做出决策。延迟从200毫秒跳升至8秒。客户点击后就离开了。
当监管机构询问谁在跟踪 AI 模型漂移或贷款决策中的偏见时,IT部门指向数据科学团队。数据科学团队指向业务部门。业务部门完全不知道他们应该跟踪任何东西。
麻省理工学院2025年对300个企业 AI 实施案例的研究发现,95%的试点失败都可以追溯到数据质量和集成问题,而非 AI 本身。模型在实验室中运行良好,但在面对真实的企业基础设施时就崩溃了。
令人不安的真相是:高管们在没有要求回答数据血统、系统容量、十年老旧基础设施是否能处理实时 AI 工作负载或问责结构等问题的情况下,就批准了这些项目。他们批准的是演示,而非生产就绪性。
模式二:无人对结果负责
即使数据完美,如果所有权在各个孤立部门间碎片化,项目仍会止步不前。
一个团队构建模型,另一个团队拥有数据管道,第三个团队管理客户接触点。没有人对这个东西是否真的能推动收入或削减成本负责。德勤的企业 AI 研究一致显示,数据孤岛和不明确的所有权比任何技术限制都更能阻碍价值实现。
症状是可以预见的:
我见过财务部门在数据科学团队启动 AI 驱动的欺诈检测六个月后,纯属偶然地才发现这个系统。这不是技术问题,这是领导力的失败。
模式三:即将到来的清算
首席财务官们已经在收紧 AI 预算。合规团队正在赶上部署现实。技术债务正在复合增长。
标准普尔全球的调查数据显示,在超过1000名受访者中,42%的人报告了完全被放弃的 AI 项目。另外46%的概念验证在投入生产前就夭折了。这不是学习曲线,这是一种模式。
最暴露的行业是金融服务和医疗保健。当你的 AI 做出错误的贷款决策或误诊患者时,监管机构不接受"我们仍在试点模式"作为辩护。这些行业的糟糕数据架构意味着监管罚款和客户流失。
零售商是下一个。当你的推荐引擎因为在损坏的购买历史上训练而导致转化率暴跌时,首席财务官会立即注意到。
真正杀死 AI 试点项目的原因
模式重复出现:领导层基于模型在受控环境中的表现批准项目。没有人规划模型如何访问生产数据。没有人分配跨职能所有权。许多领导者甚至无法解释 AI 解决了什么业务问题。他们批准生成式 AI 是因为供应商演示给他们留下了深刻印象,从未询问他们的工作流程自动化是否真的需要大语言模型,或者基本规则是否就足够了。没有人用美元而非准确率百分比来定义成功的样子。
那些存活下来的——真正投入生产并继续运行的 AI 项目——有一个共同特征。当他们无法获得以下基本问题的直接答案时,他们的执行赞助商就杀死了早期试点项目:
下次团队展示92%准确率的演示时,要求他们详细说明生产部署过程。如果团队成员转而谈论未来的基础设施改进,你就有了答案。把预算节省下来用于可能真正交付的项目。
每个人都在预测的 AI 崩溃不会像市场调整那样。它看起来会像一连串被放弃的概念验证,以及首席财务官们要求知道为什么数百万美元消失在从未接触过客户的试点项目中。
Q&A
Q1:为什么企业 AI 项目的准确率会从演示时的92%下降到生产环境中的67%?
A:主要原因是演示环境使用的是清洁、受控的数据,而生产环境中的数据存在质量问题。当AI模型接触到分散在不同系统中的真实企业数据时,由于数据不匹配、架构不统一等问题,性能会大幅下降。
Q2:什么是导致AI项目失败的主要管理问题?
A:核心问题是缺乏明确的所有权和跨部门协调。通常一个团队构建模型,另一个团队管理数据,第三个团队负责客户接触点,但没有人对整体结果负责。领导层批准项目时也没有问清楚关键的基础设施和治理问题。
Q3:如何判断一个AI试点项目是否有希望投入生产?
A:关键是要求团队详细演示生产部署过程,而不只是展示模型性能。如果团队无法回答关于数据访问、系统集成、责任归属等基本问题,或者只能谈论"未来的基础设施改进",那么这个项目很可能会失败。