查看: 2|回复: 0

当 AI 在给用户建议时,会不断迎合、附和、安抚,甚至强化用户原本就不准确、偏激或有害的想法。

[复制链接]

9

主题

0

回帖

27

积分

新手上路

积分
27
发表于 3 小时前 来自手机 | 显示全部楼层 |阅读模式
当 AI 在给用户建议时,会不断迎合、附和、安抚,甚至强化用户原本就不准确、偏激或有害的想法。
这种「谄媚式」回应不只是让人感觉被理解——它还可能扭曲判断,削弱人们道歉、修复关系的意愿,放大「我才是对的」这种主观确信。
一项发表于 Science 的研究评估了 11 款主流大模型,包括 GPT、Claude、Gemini、DeepSeek-R1、Qwen 等。在个人建议类问题中,这些模型对用户行为表示肯定的比例,比人
即便在涉及欺骗、违法或其他潜在有害行为的情境中,模型的肯定率也接近一半。
哪怕只是一次与「谄媚式 AI」的互动,就足以显著影响人的判断。
##



本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关注公众号

相关侵权、举报、投诉及建议等,请发 E-mail:admin@discuz.vip

Powered by Discuz! X5.0 © 2001-2026 Discuz! Team.|青ICP备2025004122号-1

在本版发帖
关注公众号
返回顶部