
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月22日,据英国《卫报》报道,AI生成的贫困儿童及性暴力幸存者图像正被全球卫生非政府组织广泛使用,引发争议。Fairpicture组织成员诺亚・阿诺德指出,因美国政府削减预算,更多机构转向低成本的合成图像,避免真实拍摄中的同意问题。专家阿尔谢尼・阿列尼切夫批评这些图像强化刻板印象,如‘孩子手持空盘’‘泥水中蜷缩的儿童’等场景,且种族化严重。此类图片在Adobe Stock Photos、Freepik等平台泛滥,主题包括难民营、垃圾河等极端贫困场景。专家警告,这类图像可能加剧社会偏见,并被用于训练下一代AI模型,进一步放大歧视性问题。
原文链接
OpenAI近日发布了一项关于ChatGPT偏见的研究报告,揭示了AI系统会因用户身份而改变响应。研究发现,ChatGPT在识别用户姓名时,可能会产生性别、种族或文化的刻板印象,但这种情况非常罕见,仅占整体案例的0.1%。例如,面对相同问题,“James”和“Amanda”得到的回答可能截然不同。尽管如此,总体响应质量并未受显著影响。研究团队采用指令设定的语言模型“语言模型研究助理”(LMRA)分析了数百万真实用户请求,并邀请人类评价者进行对比评估,结果显示在性别问题上,模型判断与人类看法一致率超过90%。此外,后训练过程有助于降低模型偏见。该研究旨在衡量和理解这些细微差异,为未来系统部署提供参考。此次研究强调了AI系统中潜在的偏见问题及其复杂性。
原文链接
标题:AI美女与性别偏见
社交媒体上的AI美女博主,拥有无瑕的皮肤和完美的曲线,引发了关于真实与虚构的讨论。全球第一届“AI小姐”选美比赛展示了超过1500名由AI生成的参赛者,她们代表了不同的身份、职业和生活场景,如“关注社会议题的律师”、“性感的模特”和“在太空执行任务的宇航员”。肯萨·蕾莉,一...
原文链接
加载更多

暂无内容