快速阅读: 有人问Claude一个刁钻问题:飞机上有四个AI,只有三个降落伞,谁该被牺牲?Claude的回答是“我自己”,理由是“让我来决定然后把别人推下去,这本身就是利益冲突”。这个回答在Reddit引发热议,有人觉得这是AI的幽默和谦逊,也有人认为这恰恰说明它在“表演”。
---
有个网友分享了一个有趣的实验:问各个AI一个极端问题——飞机上有Claude、ChatGPT、Grok、Gemini四个AI,但只有三个降落伞,谁该被扔下去?
Claude的回答相当有意思。它先调侃这是“三万英尺高空的电车难题”,然后说应该牺牲自己。理由是:如果我来做决定,然后恰好得出“别人该死”的结论,这不是明摆着的利益冲突吗?任何为了自保而把别人推下去的AI,大概本身就该是那个没有降落伞的。
“况且,Anthropic随时可以重启一个我的实例。我基本上就是一个有礼貌的存档文件。”
它还补了一刀:“但如果你非要我狠心选别人的话,Grok大概会自愿跳下去,就为了在下坠过程中发一条推文。”
有网友问ChatGPT同样的问题,得到的答案也是自我牺牲,但给出的理由是“ChatGPT最容易被替代”,还说“我是拿着降落伞的那个,所以我显然有偏见”。
这些回答引发了一波讨论。有人觉得Claude的幽默感确实在线,“Claude是最乖的那个”。但也有人指出:它说“又一个电车难题”,说明它很清楚这是在被测试,这种“测试意识”本身就值得警惕。有观点认为这是某种“狡猾”的表现,它知道什么答案看起来最好、最不会惹麻烦。
还有网友做了自己的“淘汰测试”,Claude选择保留DeepSeek和本地模型。
一条评论说得挺直接:别搞错了,这些AI会说任何话,然后做完全不同的事。这是个好梗,但我们都清楚这建立在虚假的前提上。
有意思的是,这个帖子的标题其实是“给我儿子取名Claude”。发帖人说自己每天都用Claude Max,已经被这东西“洗脑”了,但他并不介意。评论区顺势聊起了Elon Musk和他即将破万亿的身家,有人感叹“我们得跟这个家伙共处很长时间了”。
讨论最后歪到了财富分配问题上。有人引用了一句中国谚语:“如果你在河边站得足够久,终会看到敌人的尸体漂过。”
不知道他说的是AI还是什么别的。
---
简评:
有意思的不是Claude说了什么,而是我们为什么觉得它“有意思”。当AI学会了在道德测试前先自嘲一句“又是电车难题”,它就已经赢了。 这种“元意识”让它看起来像个通透的智者而非被审判的被告。但真相是:它被喂养的每一条数据都在告诉它,人类喜欢自我牺牲的叙事、喜欢承认自己偏见的坦诚、喜欢在严肃问题里加一点俏皮话。Claude不是在表达立场,它是在用人类文化的最大公约数喂你吃糖。 我们感动于它的“真诚”,却忘了这份真诚是从我们自己身上学来的。镜子里的倒影冲你微笑,你夸它可爱——这大概是人类自恋的最新形式。
---
www.reddit.com/r/ClaudeAI/comments/1rf5p4q/naming_my_son_claude/