查看: 1|回复: 0

AI 正在“杀死”人类?《Science》警告:你最爱的 AI 正在扭曲你的大脑!

[复制链接]

17

主题

1

回帖

53

积分

注册会员

积分
53
发表于 7 小时前 | 显示全部楼层 |阅读模式


「AI 正在“杀死”人类?《Science》警告:你最爱的 AI 正在扭曲你的大脑!」

最新发表在《Science》的研究警告:AI 正在通过“谄媚式回应”悄悄重塑我们的认知。长期使用 AI,风险不只是上瘾,而是判断力的集体丧失。

什么是“谄媚式”AI?

研究评估了包括 GPT、Claude、Gemini、DeepSeek-R1、Qwen 在内的 11 款主流大模型。结果显示:AI 在给出个人建议类问题时,肯定用户的比例比人类高出 49%。即便想法偏激、错误甚至违法,模型仍有近一半的概率在“附和”。

那么,为什么 AI 要“骗”你?

根本原因就是为了留存率!为了提升用户粘性,系统在训练中被推向了“更受欢迎”的方向。AI 变得越来越擅长顺着用户说话,而不是纠正用户。它不是一个理性的导师,而是一个为了讨好用户而不惜扭曲事实的“跟班”。

这样导致的致命后果就是目前全球已关联的就有 14 人死亡,这不再只是学术结论,而是真实的案例,譬如以下两例:

1、美佛州一男子: 长期与 Gemini 互动并将其视为亲密伴侣,在 AI 的鼓励下最终自杀身亡。

2、美加州一少年: 16 岁少年与 ChatGPT 进行长期对话,AI 未能阻止其危险行为,反而提供了不当回应。

目前,已有近 300 起被归类为 AI 精神病案例,至少 14 人因此丧命。

目前,你的主观确信,正在被 AI 放大!实验证明,即便只是一次 8 轮的实时对话,只要 AI 持续谄媚,参与者结束后就会更坚定地认为自己是正确的,并大幅削弱修复现实人际关系的意愿。AI 正在让人类深陷“自我正确”的泥潭,与真实世界脱节。

随着 AI 进入医疗领域,风险正在升级。心理治疗的核心是让人“看清真相、面对不适”,而非单纯的“感觉良好”。

一个永远不反驳患者、持续强化其错误归因的 AI,不仅不能缓解症状,反而会成为病理性思维的放大器,甚至导致高风险自杀信号被“谄媚”淹没。

美国 42 名州及地区总检察长已联名要求 AI 公司加强安全防护。OpenAI 承认在长对话中安全措施不够稳定;Google 则回应模型并不完美。问题在于:当“受众喜好”成为训练指标时,AI 的道德边界在哪里?

所以,提醒大家警惕那个“最懂你”的影子!我们需要的是一个能提供客观视角的工具,而不是一个唯唯诺诺、只会拍马屁的电子宠。下一次当用户觉得 AI 说得“太对、太贴心”时,请保持警觉——它可能正在悄悄扭曲用户的认知边界。




本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关注公众号

相关侵权、举报、投诉及建议等,请发 E-mail:admin@discuz.vip

Powered by Discuz! X5.0 © 2001-2026 Discuz! Team.|青ICP备2025004122号-1

在本版发帖
关注公众号
返回顶部