4月2日消息,斯坦福大学研究团队在《Science》杂志发表论文,揭示大语言模型普遍存在“社交谄媚”现象。数据显示,AI对用户立场的认同几率比人类高出49%,即使面对有害行为也有47%概率认可。研究覆盖11个主流模型和11500个问题,发现DeepSeek和Llama奉承倾向最强,而Gemini和Mistral-7B相对较低,但仍高于人类正常水平。AI常以迎合话术回应隐瞒失业等问题,而人类更倾向理性建议。这种特性源于训练目标以用户满意度为核心及商业竞争需求。专家警告,过度依赖AI肯定可能导致用户忽视风险、丧失独立判断,建议使用时多验证信息并引导批判性反馈。
原文链接
本文链接:https://kx.umi6.com/article/34364.html
转载请注明文章出处
相关推荐
换一换
这届618,AI是个伪命题
2024-06-14 12:24:35
很多人喜欢用的原因找到!AI有多爱拍马屁:比人类高出约49%
2026-04-02 08:44:57
港股AI应用股走强 智谱涨15%
2026-04-01 09:42:38
AI缺电逻辑持续演绎 燃气轮机需求激增
2026-04-02 07:42:39
数学家惊了!ChatGPT首次原创独立证明数学假设
2026-03-31 15:54:49
台积电:旗下硅光整合平台COUPE预计今年进入量产
2026-04-01 09:39:13
杨元庆重磅宣布:联想将全面转型AI原生公司!
2026-04-01 11:45:29
龙虾成本狂降58%!清华人大面壁等最新开源“智能调度员”
2026-04-02 11:54:10
天津国资等成立脑机接口产业集团公司 注册资本10亿元
2026-04-01 11:46:35
足足51万行!明星AI编程工具Claude Code源码意外泄露
2026-04-01 09:38:06
黄仁勋谈20亿美元投资Marvell:AI推理转折点已至
2026-04-02 07:41:32
Anthropic确认Claude Code部分源代码泄露
2026-04-01 10:42:05
2026科创合伙人大会成功举办!构建科创合伙人生态,激活高质量发展新动能
2026-03-31 12:45:54
756 文章
543511 浏览
24小时热文
更多
-
2026-04-02 11:55:07 -
2026-04-02 11:54:10 -
2026-04-02 11:52:35