快速阅读:一张健美先生写代码的梗图引发讨论,真正有价值的是评论区一位开发者的亲身经历:十个月内,AI编程从需要逐步引导变成了“扔个语音备忘录,回来功能就做好了”。这种进步速度让曾经预言LLM会在2024年停滞的人感到打脸。
---
这张图的笑点很简单:让Opus 4.6去构建Opus 5.0,“不要犯错”。一个肌肉炸裂的男人站在电脑前,仿佛下一秒就要把键盘捏碎。
有人真的试了。Opus的回复是:“我很感激这份信任,但这个计划有个小问题,你本质上是在要求我从零开始构建我自己,还不能出错。这既是一个美丽的悖论,也是召唤哲学意义上的stack overflow的绝佳方式。”
笑归笑,评论区有位做咨询的开发者分享了一段让人沉默的经历。
他翻看自己十个月前用Sonnet 3.7写的项目,简直不敢相信那是同一个时代的产物。2025年初,他还需要小心翼翼地引导模型,一个功能一个功能地拆解,Supabase的数据库迁移得手动做,因为MCP还不成熟。
现在呢?他有个大约80人在用的客户门户网站。白天走在路上突然想到一个功能,比如“要是客户能在门户里并排比较两个网站设计,还能直接在页面上点击标注就好了”。回家后对着手机语音转文字胡说一通需求,把prompt丢给Opus或Codex 5.3,让它通过Supabase MCP自己折腾。
四十分钟后回到电脑前,打开localhost,95%的情况下功能就那么跑起来了。
他承认这是个相对简单的NextJS应用,训练数据里有大量参考。但问题是:十个月前他做不到这一点。哪怕是简单的东西。
有观点认为现在衡量AI能力的关键已经不是模型有多聪明,而是它能连续运行多长时间不崩溃。记忆层和上下文压缩在这里面扮演的角色可能被低估了。
当然也有人泼冷水:基础功能还是经常出错,需要人工干预,离营销话术里描述的状态差得远。
但那位开发者说了一句话:也许有一天我们会回头看这些,觉得这也太简单了。
他设了个提醒,2026年12月31日。到时候再来看这张图。
不知道那时候的梗图会是什么样子。
---
简评:
所有人都在讨论模型变聪明了多少,却忽略了真正的变量:从“一个功能一个功能拆解”到“语音胡说一通,四十分钟后验收”,缩短的不是代码量,是人类注意力的投入成本。 这才是指数增长的恐怖之处——不是AI能做什么,而是人类可以不做什么。那位开发者说这是“相对简单的NextJS应用”,但十个月前简单的东西他也做不到。当“简单”的门槛以月为单位下沉,“复杂”的定义就在以月为单位崩塌。 泼冷水的人说基础功能还常出错,但他们忘了:出错后AI迭代修复的成本,也在同步暴跌。
---
www.reddit.com/r/ClaudeAI/comments/1rf25vv/yeah_buddy_lightweight/