一个不太正确的观察

一个不太政治正确的观察:

AI 编程,正在让一部分程序员变得更浮躁。

现在的常见场景是——
一个很简单的 bug:
• 报错栈已经写得很清楚
• 变量范围一眼能看出来
• 逻辑路径并不复杂

却第一时间丢给 AI。
问题是,AI 给出的不是一个线索,
而是一整套“结构化分析包”:
• 可能原因 A / B / C
• 详细解释
• 延伸风险
• 重构建议
• 最佳实践

信息很多。
但未必是此刻最需要的。

原本 3 分钟能顺着调用链定位的问题,
反而变成 15 分钟筛选 AI 输出。

这不是 AI 的问题,是使用方式的问题。
但对那种“明确报错 + 清晰上下文”的小问题,
人脑的路径搜索往往更快。

效率提升的前提是判断力。
什么时候该自己推?
什么时候该让模型参与?
真正成熟的用法可能是:
简单问题 → 先自己跑一轮
复杂问题 → 让 AI 扩展视角
卡住超过阈值 → 再引入模型
否则输出信息越多,
判断力越弱,
效率反而下降。##
分类