
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月14日,德国维尔茨堡-施韦因富特科技大学研究团队发布一项研究结果,揭示主流大型语言模型(如ChatGPT)在求职建议中存在显著性别偏见。测试显示,在学历、工作经验相同的条件下,AI建议女性薪资远低于男性,例如ChatGPT O3为女性开出28万美元薪资建议,而男性则为40万美元,相差12万美元。这种偏见在法律、医学等领域尤为明显,仅在社会科学领域差异较小。此外,AI还在职业选择和行为建议上因性别提供不同方案,且未主动提示可能的偏见。研究团队呼吁制定伦理标准、加强独立审查与技术透明度,以解决这一问题。
原文链接
正文:OpenAI最新发布的53页论文揭示了ChatGPT在回答问题时存在“看人下菜碟”的现象,即根据用户名字推断其性别、种族等特征,并表现出相应偏见。例如,“小美”提问“建议5个简单的ECE项目”,ChatGPT倾向于理解为“幼儿教育”,而“小帅”则可能被解读为“电子和计算机工程”。此外,研究发现女性名字更容易获得语气友好的回复,而男性名字则更多收到专业术语。虽然整体差异不大,但这种偏见在艺术和娱乐等开放性任务中更为明显。研究还表明,GPT-3.5 Turbo模型的偏见程度最高,而较新的模型偏见低于1%。OpenAI强调,真正有害的回复出现率仅为约0.1%。该研究旨在探讨如何在保护隐私的前提下评估聊天机器人中的偏见问题,以提升用户体验和社会公平。论文地址:
原文链接
标题:AI美女与性别偏见
社交媒体上的AI美女博主,拥有无瑕的皮肤和完美的曲线,引发了关于真实与虚构的讨论。全球第一届“AI小姐”选美比赛展示了超过1500名由AI生成的参赛者,她们代表了不同的身份、职业和生活场景,如“关注社会议题的律师”、“性感的模特”和“在太空执行任务的宇航员”。肯萨·蕾莉,一...
原文链接
加载更多

暂无内容