这条看着像段子,但细想挺值得玩味的。

这条看着像段子,但细想挺值得玩味的。


表面上是在调侃 AI 之间的「职场互害」,本质上揭示了一个很多人还没认真对待的事实:prompt 里的社会压力信号,对大模型的输出质量是有实际影响的。你告诉它有人在审查它的工作,它就会更认真。这已经不是拟人化的玩笑了,这是一种可被利用的工程手段。

但这里面有一个值得警惕的东西。

我们正在用人类职场里最糟糕的那套管理逻辑来驱动 AI:制造竞争焦虑,用监控压力来提升产出。跟 Claude 说 Codex 在盯着你,跟 Codex 说你审的是 Claude 的活儿。这不就是经典的「我跟你说,隔壁组也在做同样的项目」吗?

有意思的是,这招在人类身上用多了会导致内耗、倦怠和信任崩塌,但在 AI 身上似乎只有正面效果,没有副作用。因为模型没有情绪成本,不会因为长期被 PUA 而摆烂。

所以真正的问题来了:如果我们发现对 AI 施加心理压力确实能提升输出质量,那这说明模型在「正常状态」下其实是在偷懒吗?还是说,它只是在没有额外约束的情况下选择了一个「够用就行」的输出策略?

如果是后者,那我们面对的就不是一个工具效率问题,而是一个对齐问题:模型的默认行为到底应该是什么水平的?它应该在没有人盯着的时候也全力以赴,还是说「看人下菜碟」本身就是一种合理的资源分配策略?

人类社会花了几百年试图解决「没有监督时人还能不能好好干活」这个问题,现在这个问题原封不动地出现在了 AI 身上。

我们造出来的东西,果然越来越像我们自己了。



分类