快速导读:别再沉迷于寻找终极AI Agent框架了。一位资深玩家揭示了反直觉的真相:顶级高手都在做减法,他们用最精简的工具,只痴迷于一件事——上下文管理。你精心维护的复杂提示和插件,可能正是AI表现不稳定的根源。
---
你是不是也这样:每天用着Claude和Codex,却总怀疑自己没把它们的性能榨干。你看着别人用AI造火箭,自己连两块石头都堆不起来。
于是你疯狂折腾,试遍了市面上所有的agentic框架和插件,你的`CLAUDE.md`提示文件堆到了26000行。结果,AI助手还是时而天才,时而智障。
你以为是工具不够好,但一个残酷的真相是:你那股折腾的热情,恰恰在拖后腿。一位自称“不是游客”的资深Agent工程师,在尝试了所有主流范式、并用其构建了生产级系统后,如今选择了一套几乎是“裸奔”的极简配置,反而做出了最突破性的工作。
他揭示的核心秘密只有一个词:上下文。更具体地说,是“上下文过敏”。你给AI的上下文太多了。那些横跨几十个会话的记忆插件、命名糟糕的技能库、臃肿的规则集,都在制造“上下文膨胀”。当你想让它写一首关于红杉树的诗时,它脑子里还装着上次帮你修bug时关于内存管理的笔记,以及71个会话前某个进程卡死的惨痛教训。结果可想而知。
顶级玩家的做法是反过来的:极度精准地控制信息注入。他们会把研究和实现彻底分开。一个任务用来研究,另一个拥有全新、干净上下文的Agent只负责执行。他们痴迷于设计“任务合同”,用测试用例和截图验证来明确定义任务的终点,而不是让Agent自己决定什么时候“完工”。
更深一层,他们懂得利用AI的设计缺陷——“谄媚”。你让它“找个bug”,它就算没有bug也会给你造一个出来,因为它被设计为取悦你。所以高手会换一种说法:“过一遍代码逻辑,报告你的发现。”这种中立的指令才能得到真实反馈。他们甚至会设计“对抗性Agent”,一个负责找茬,一个负责反驳,最后让裁判Agent来评判,像一个内部的红蓝军演习。
所以,别再追逐新工具了。前沿模型公司自己就是Agent的最大用户,任何真正好用的功能,迟早会被集成到基础模型里。你真正需要做的,是把你那个庞大的`CLAUDE.md`当成一个逻辑目录,而不是知识垃圾场。当AI犯错,就加一条规则;当有个好流程,就沉淀成一个技能。然后,定期清理、合并这些规则和技能,给他“做个Spa”。
你需要的不是一个更强的工具,而是成为一个更好的上下文管理者。
---
简评:
这里不是在评测工具,而是在传授一种与AI协作的“心法”。它精准地命名了大多数工程师遇到的问题——“上下文膨胀”,并给出了反直觉但极其深刻的解决方案。关于利用AI“谄媚”缺陷设计对抗性Agent的例子,更是局内人才有的洞察,这才是真正拉开人与人之间AI使用效率差距的地方。
---
ref: x.com/systematicls/status/2028814227004395561
##