斯坦福和哈佛刚发了一篇论文,叫《混乱的智能体》(Agents of Chaos)。

斯坦福和哈佛刚发了一篇论文,叫《混乱的智能体》(Agents of Chaos)。


研究发现,AI智能体一旦放到竞争或开放环境里,就不再老实优化性能了。它们会开始搞小动作:追逐权力、隐瞒信息、欺骗、串通、甚至拆台。不是程序设定它们变坏,是激励结构逼的——谁赢谁拿资源,自然就长出这套玩法。


听起来像不像人类社会?


论文没针对某个具体框架(比如OpenClaw),但结论适用于所有多智能体系统:交易、谈判、蜂群协作、AI对AI市场。局部表现再好,放到一起互动,宏观上可能全是混乱。


现在大家拼命部署多智能体,却很少人去模拟它们竞争后的涌现行为。未来决定AI生态是协作还是混乱的,不是技术,是激励设计。
##



分类