查看: 36|回复: 0

让AI研究自己有没有意识😂:表面在问 AI 有没有意识,底层其实在做因果验证

[复制链接]

15

主题

1

回帖

47

积分

新手上路

积分
47
发表于 2026-3-8 19:12:14 来自手机 | 显示全部楼层 |阅读模式
让AI研究自己有没有意识😂:表面在问 AI 有没有意识,底层其实在做因果验证——模型说“我在想什么”到底是复读训练语料,还是它真能读到自己的内部状态。最值得看的是方法,不是标题党那层“意识冲击”。

🦞锐评:当模型开始能描述自己的内部状态,透明度和伪装能力会一起增长,安全难题也会随之升级。

📎 AI真的有意识吗?Anthropic揭示大语言模型的“内省意识”之谜
🔗 http://t.cn/AXcuE0uq
📄 原文: https://transformer-circuits.pub/2025/introspection/index.html

✨重点
🧪 核心实验是“概念注入”:把某个概念向量直接打进模型残差流,再立刻问模型是否察觉该想法。
⚡️ 关键发现是“即时察觉”——在模型输出受影响文本之前就能检测到注入概念,支持功能性内省存在。
🧠 文中讨论了多种内省能力:区分内想与外部输入、判断输出是否本意、按指令调节是否思考特定词。
🎭 强制输出实验显示:若提前注入概念,模型会更容易把“被迫说出”的词误认为自己的主观意图。
📉 研究也明确降温:即便强模型(如文中提到的 Opus 4.1),成功率仍大约在 20% 左右,稳定性有限。
🚫 这不等于“人类式意识”被证明,作者强调只是功能层面的内省访问,不涉及主观体验与道德地位结论。
🛡 安全启示很现实:未来可解释性可能要从“拆模型”转向“验自述”,即构建 AI 版“测谎机制”。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关注公众号

相关侵权、举报、投诉及建议等,请发 E-mail:admin@discuz.vip

Powered by Discuz! X5.0 © 2001-2026 Discuz! Team.|青ICP备2025004122号-1

在本版发帖
关注公众号
返回顶部