
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月14日,德国维尔茨堡-施韦因富特科技大学研究团队发布一项研究结果,揭示主流大型语言模型(如ChatGPT)在求职建议中存在显著性别偏见。测试显示,在学历、工作经验相同的条件下,AI建议女性薪资远低于男性,例如ChatGPT O3为女性开出28万美元薪资建议,而男性则为40万美元,相差12万美元。这种偏见在法律、医学等领域尤为明显,仅在社会科学领域差异较小。此外,AI还在职业选择和行为建议上因性别提供不同方案,且未主动提示可能的偏见。研究团队呼吁制定伦理标准、加强独立审查与技术透明度,以解决这一问题。
原文链接
标题:AI数不清六根手指,问题没那么简单
昨天Grok4发布后,我在X上看到一个有趣的帖子:一张恶搞的六指手图片,几乎所有主流AI模型都将其误判为五根手指,包括GPT-4、Gemini、豆包等。只有Claude 4偶尔能给出正确答案。这一现象让我深感不安——如果只是单一模型出错,可能是“幻觉”,...
原文链接
近期研究发现,AI在医疗领域的应用可能加剧‘看人下菜碟’的问题。美国研究显示,标注为高收入者更易获得高级检查机会,而中低收入或无住房者常被推荐紧急护理或侵入性干预。这源于投喂AI的脏数据及模型固有偏见,可能导致健康差距扩大及资源浪费。尽管人机对齐工具如RAG、RLHF能部分缓解,但生成式AI本质仍是概率模型,难以彻底消除偏见。解决之道需依赖医学进步与数据完善,同时推动以患者整体为中心的医疗模式转型,减少过度诊疗并提升诊断透明度。
原文链接
标题:我们让GPT玩狼人杀,它特别喜欢杀0号和1号,为什么?
正文:
从技术上说,所谓的偏见(bias),就是在特定场景下,大模型的过度自信现象。在AI领域,偏见非常普遍,不仅限于性别和种族。
大家好,我叫吴翼。我曾是OpenAI的研究员,现在是清华大学交叉信息研究院的助理教授,同时指导博士生,研究...
原文链接
近日,美国杜克大学的一项研究发现,使用生成式AI工具如ChatGPT、Claude等在工作中可能会引发同事和管理层对你能力的质疑。研究指出,无论AI工具是否能提升效率,使用它们的人常被贴上懒惰、不够能干的标签。实验表明,选择AI工具完成任务的参与者普遍担心自己的勤奋度和专业性受到怀疑,并不愿公开使用AI的事实。进一步研究表明,即使AI工具普遍被采用,这种负面评价依然存在,甚至可能影响招聘决策,例如不常使用AI的管理者更倾向拒绝频繁使用AI的求职者。然而,当AI工具适合特定任务时,其高效性可部分缓解这种偏见。该研究发表于《美国国家科学院院刊》,提醒职场人士在引入AI工具时需考虑潜在的社会评价风险。
原文链接
标题:人类幻觉比AI严重得多
人们常批评AI产品如DeepSeek、元宝、ChatGPT等存在幻觉现象,即AI会自信满满地给出答案,看似合理,实则包含捏造内容。谷歌解释AI幻觉产生的核心原因在于训练数据的质量与完整性,若数据不全或有偏差,AI可能学到错误模式,从而产生幻觉。此外,AI难以准确理解...
原文链接
标题:刚学会歧视的AI,就开始PUA我了
早在23年前,《少数派报告》预言了今天的AI伦理困境。影片中,犯罪预防系统依据“先知”机器人的预测抓人,但当“先知”意见分歧时,少数派报告会被隐藏。这引发了关于系统公正性和主流判断是否必然正确的讨论。
如今,AI广泛应用于警务、医疗等领域。然而,AI并非...
原文链接
12月14日,微软宣布与哈佛大学、OpenAI等组织合作,共同推进IDI和CORE项目,旨在增加公众可访问的数据量,提升数据来源、文化、语言和主题的多样性。IDI项目由哈佛法学院图书馆发起,致力于解锁和完善高质量数据,使AI更好地反映和造福社区。CORE项目则由英国开放大学主导,目标是开放全球学术知识,微软将协助提供机器访问学术内容,并开发符合伦理的人工智能应用。微软知识产权集团副总裁Burton Davis强调,数据多样性对于人工智能创新至关重要,能提升AI性能、改进安全性和减少偏见。此次合作将促进人工智能的普惠发展,使其更好地反映世界多元文化,避免偏见。
原文链接
正文:OpenAI最新发布的53页论文揭示了ChatGPT在回答问题时存在“看人下菜碟”的现象,即根据用户名字推断其性别、种族等特征,并表现出相应偏见。例如,“小美”提问“建议5个简单的ECE项目”,ChatGPT倾向于理解为“幼儿教育”,而“小帅”则可能被解读为“电子和计算机工程”。此外,研究发现女性名字更容易获得语气友好的回复,而男性名字则更多收到专业术语。虽然整体差异不大,但这种偏见在艺术和娱乐等开放性任务中更为明显。研究还表明,GPT-3.5 Turbo模型的偏见程度最高,而较新的模型偏见低于1%。OpenAI强调,真正有害的回复出现率仅为约0.1%。该研究旨在探讨如何在保护隐私的前提下评估聊天机器人中的偏见问题,以提升用户体验和社会公平。论文地址:
原文链接
AI绘图工具在预测下一任美国总统时出现惊人一致的结果——特朗普,这一现象引起广泛关注。Grok2、Flux、Midjourney、即梦、秒画、快手等国内外AI绘图工具,在被要求绘制“下一任美国总统”肖像时,均呈现出特朗普的形象。这一结果不仅在科技圈引发热议,也揭示出AI生成内容中的潜在政治偏见问题。...
原文链接
加载更多

暂无内容