
AI:数字时代最后的效率压榨
不是新浪潮的开始,而是旧范式的收尾 一、引子:三篇文章,一个问题 最近读到三篇文章,单独看各有意思,串起来读更有意思。 第一篇来自前端开发者 Adam Argyle,标题直白:《AI 为什么在前端表现糟糕》。第二篇是宾夕法尼亚大学和波士顿大学两位学者发在 arXiv 上的论文:《AI 裁员陷阱》,用博弈论分析 AI 驱动的裁员潮为什么停不下来。第三篇来自未来研究者 Andrew Curry,标题更大胆:《AI 可能是这波数字浪潮的终结,而不是下一个重大事件》。 三篇文章的作者背景各不相同,关注的问题也不一样,但放在一起,它们拼出了同一幅图景——AI 或许不是我们以为的那个故事。 本文不讨论 AI 能不能、好不好,而是借这三篇文章尝试回答一个更基础的问题:在历史的坐标上,AI 到底处于什么位置? 二、AI 做不好的事,暴露了它的本质 Adam Argyle 的 文章 写的是前端,但他列出的那些问题,后端开发者读起来会觉得分外熟悉。 AI 很擅长脚手架、样板代码、token 迁移这类“高度重复、模式清晰”的工作。但一旦你走出这条铺好的路——想要一个定制交互、一套贴合业务的架构决策、一段真正考虑边界条件的逻辑——它就开始胡说了。越复杂,越糟糕。 Argyle 总结了四个根本原因:训练数据太旧、不会真正“看”、不知道“为什么”、以及零环境控制。这四条放到后端同样成立,甚至更严重。微服务拆分的边界、分布式系统的一致性权衡、幂等性设计……这些“为什么”恰恰是工程里最有价值的部分,也是 AI 最无能为力的地方。 训练数据旧这个问题,还有一个更隐蔽的维度——不只是数据“旧”,而是几乎没有。最新发布的 Kubernetes API、刚合并的特性、刚废弃的字段……这些信息在模型训练截止日之后才存在,LLM 原生不知道,只能靠 web search 打补丁。而这种情况会出现在每一个快速演进的技术栈里,不只是 Kubernetes。每一个“角落”都是一个盲区,盲区叠加盲区,最终的不确定性远比表面看起来大得多。





