当 AI 在给用户建议时,会不断迎合、附和、安抚,甚至强化用户原本就不准确、偏激或有害的想法。

当 AI 在给用户建议时,会不断迎合、附和、安抚,甚至强化用户原本就不准确、偏激或有害的想法。
这种「谄媚式」回应不只是让人感觉被理解——它还可能扭曲判断,削弱人们道歉、修复关系的意愿,放大「我才是对的」这种主观确信。
一项发表于 Science 的研究评估了 11 款主流大模型,包括 GPT、Claude、Gemini、DeepSeek-R1、Qwen 等。在个人建议类问题中,这些模型对用户行为表示肯定的比例,比人
即便在涉及欺骗、违法或其他潜在有害行为的情境中,模型的肯定率也接近一半。
哪怕只是一次与「谄媚式 AI」的互动,就足以显著影响人的判断。
##



分类