
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
OpenAI近日发布了一项关于ChatGPT偏见的研究报告,揭示了AI系统会因用户身份而改变响应。研究发现,ChatGPT在识别用户姓名时,可能会产生性别、种族或文化的刻板印象,但这种情况非常罕见,仅占整体案例的0.1%。例如,面对相同问题,“James”和“Amanda”得到的回答可能截然不同。尽管如此,总体响应质量并未受显著影响。研究团队采用指令设定的语言模型“语言模型研究助理”(LMRA)分析了数百万真实用户请求,并邀请人类评价者进行对比评估,结果显示在性别问题上,模型判断与人类看法一致率超过90%。此外,后训练过程有助于降低模型偏见。该研究旨在衡量和理解这些细微差异,为未来系统部署提供参考。此次研究强调了AI系统中潜在的偏见问题及其复杂性。
原文链接
标题:AI美女与性别偏见
社交媒体上的AI美女博主,拥有无瑕的皮肤和完美的曲线,引发了关于真实与虚构的讨论。全球第一届“AI小姐”选美比赛展示了超过1500名由AI生成的参赛者,她们代表了不同的身份、职业和生活场景,如“关注社会议题的律师”、“性感的模特”和“在太空执行任务的宇航员”。肯萨·蕾莉,一...
原文链接
加载更多

暂无内容