1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
含近 2000 名参与者图像,索尼新数据集可检验 AI 模型是否公平对待不同人群
11月6日,索尼AI发布名为“公平以人为本图像基准”(FHIBE)的新数据集,用于测试AI模型的公平性与偏见。该数据集包含来自80多个国家近2000名参与者的图像,所有图像均基于知情同意采集,并允许参与者随时撤回授权。FHIBE涵盖详细标注,包括人口统计学特征、身体特征及环境因素等,可评估计算机视觉任务中的偏见问题。索尼发现,现有AI模型在性别代词使用、职业推测及犯罪描述中存在显著偏见,例如对肤色较深或特定族裔人群强化刻板印象。此外,发型多样性被揭示为影响偏见的关键因素之一。索尼强调,FHIBE是首个公开且具全球多样性的数据集,现已向公众开放,并将持续更新。相关研究已发表于《自然》期刊。
未来编码者
11-06 18:08:26
AI偏见
公平性数据集
索尼AI
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序