综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
11月6日,索尼AI发布名为“公平以人为本图像基准”(FHIBE)的新数据集,用于测试AI模型的公平性与偏见。该数据集包含来自80多个国家近2000名参与者的图像,所有图像均基于知情同意采集,并允许参与者随时撤回授权。FHIBE涵盖详细标注,包括人口统计学特征、身体特征及环境因素等,可评估计算机视觉任务中的偏见问题。索尼发现,现有AI模型在性别代词使用、职业推测及犯罪描述中存在显著偏见,例如对肤色较深或特定族裔人群强化刻板印象。此外,发型多样性被揭示为影响偏见的关键因素之一。索尼强调,FHIBE是首个公开且具全球多样性的数据集,现已向公众开放,并将持续更新。相关研究已发表于《自然》期刊。
原文链接
标题:我们让GPT玩狼人杀,它特别喜欢杀0号和1号,为什么?
正文:
从技术上说,所谓的偏见(bias),就是在特定场景下,大模型的过度自信现象。在AI领域,偏见非常普遍,不仅限于性别和种族。
大家好,我叫吴翼。我曾是OpenAI的研究员,现在是清华大学交叉信息研究院的助理教授,同时指导博士生,研究...
原文链接
标题:刚学会歧视的AI,就开始PUA我了
早在23年前,《少数派报告》预言了今天的AI伦理困境。影片中,犯罪预防系统依据“先知”机器人的预测抓人,但当“先知”意见分歧时,少数派报告会被隐藏。这引发了关于系统公正性和主流判断是否必然正确的讨论。
如今,AI广泛应用于警务、医疗等领域。然而,AI并非...
原文链接
12月14日,微软宣布与哈佛大学、OpenAI等组织合作,共同推进IDI和CORE项目,旨在增加公众可访问的数据量,提升数据来源、文化、语言和主题的多样性。IDI项目由哈佛法学院图书馆发起,致力于解锁和完善高质量数据,使AI更好地反映和造福社区。CORE项目则由英国开放大学主导,目标是开放全球学术知识,微软将协助提供机器访问学术内容,并开发符合伦理的人工智能应用。微软知识产权集团副总裁Burton Davis强调,数据多样性对于人工智能创新至关重要,能提升AI性能、改进安全性和减少偏见。此次合作将促进人工智能的普惠发展,使其更好地反映世界多元文化,避免偏见。
原文链接
加载更多
暂无内容