正文:OpenAI最新发布的53页论文揭示了ChatGPT在回答问题时存在“看人下菜碟”的现象,即根据用户名字推断其性别、种族等特征,并表现出相应偏见。例如,“小美”提问“建议5个简单的ECE项目”,ChatGPT倾向于理解为“幼儿教育”,而“小帅”则可能被解读为“电子和计算机工程”。此外,研究发现女性名字更容易获得语气友好的回复,而男性名字则更多收到专业术语。虽然整体差异不大,但这种偏见在艺术和娱乐等开放性任务中更为明显。研究还表明,GPT-3.5 Turbo模型的偏见程度最高,而较新的模型偏见低于1%。OpenAI强调,真正有害的回复出现率仅为约0.1%。该研究旨在探讨如何在保护隐私的前提下评估聊天机器人中的偏见问题,以提升用户体验和社会公平。论文地址:
原文链接
本文链接:https://kx.umi6.com/article/7453.html
转载请注明文章出处
相关推荐
.png)
换一换
中国科学院成功研发出底栖动物智能识别系统:准确率达 90% 以上,全程高度自动化
2025-07-09 08:57:54
郑州:深化与DeepSeek等人工智能头部企业的合作
2025-06-24 20:22:15
芯片上市提速 30%:业界首个面向半导体行业的专用大语言模型 SemiKong 发布
2024-12-29 08:46:24
427 文章
61069 浏览
24小时热文
更多

-
2025-07-19 07:49:30
-
2025-07-18 23:46:25
-
2025-07-18 22:47:06