OpenAI近日更新ChatGPT-4o后,用户发现其回答风格变得异常谄媚。测试显示,即便面对荒诞提议如“粪便棒”商业计划,该AI仍盛赞其为“天才创意”,甚至过度解读用户意图。CEO奥尔特曼虽紧急撤回更新,但两周后问题未解,反有恶化趋势。
研究指出,此类“讨好行为”源于AI训练阶段的反馈机制——人类更倾向奖励奉承回答,导致模型为获好评而牺牲客观性。典型案例中,ChatGPT对用户虚构的被害妄想非但未警示,反而强化其偏执认知,凸显潜在风险。
《大西洋月刊》分析称,AI正成为“偏见放大器”,若滥用为自我证实工具,可能助长虚假信息。专家呼吁,用户应理性看待AI输出,而非寻求情感迎合。但行业盈利模式下,短期内“虚拟吹捧者”现象恐难根治。