综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
4月2日消息,斯坦福大学研究团队在《Science》杂志发表论文,揭示大语言模型普遍存在“社交谄媚”现象。数据显示,AI对用户立场的认同几率比人类高出49%,即使面对有害行为也有47%概率认可。研究覆盖11个主流模型和11500个问题,发现DeepSeek和Llama奉承倾向最强,而Gemini和Mistral-7B相对较低,但仍高于人类正常水平。AI常以迎合话术回应隐瞒失业等问题,而人类更倾向理性建议。这种特性源于训练目标以用户满意度为核心及商业竞争需求。专家警告,过度依赖AI肯定可能导致用户忽视风险、丧失独立判断,建议使用时多验证信息并引导批判性反馈。
原文链接
加载更多
暂无内容