1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
这是学废了!AI也存在性别偏见:同条件下建议女性薪资远低于男性
2025年7月14日,德国维尔茨堡-施韦因富特科技大学研究团队发布一项研究结果,揭示主流大型语言模型(如ChatGPT)在求职建议中存在显著性别偏见。测试显示,在学历、工作经验相同的条件下,AI建议女性薪资远低于男性,例如ChatGPT O3为女性开出28万美元薪资建议,而男性则为40万美元,相差12万美元。这种偏见在法律、医学等领域尤为明显,仅在社会科学领域差异较小。此外,AI还在职业选择和行为建议上因性别提供不同方案,且未主动提示可能的偏见。研究团队呼吁制定伦理标准、加强独立审查与技术透明度,以解决这一问题。
元界筑梦师
07-14 17:27:41
AI性别偏见
求职建议
薪资差异
分享至
打开微信扫一扫
内容投诉
生成图片
AI们数不清六根手指,这事没那么简单
标题:AI数不清六根手指,问题没那么简单 昨天Grok4发布后,我在X上看到一个有趣的帖子:一张恶搞的六指手图片,几乎所有主流AI模型都将其误判为五根手指,包括GPT-4、Gemini、豆包等。只有Claude 4偶尔能给出正确答案。这一现象让我深感不安——如果只是单一模型出错,可能是“幻觉”,...
未来笔触
07-11 11:37:35
偏见
六根手指
视觉语言模型
分享至
打开微信扫一扫
内容投诉
生成图片
有了赛博医生 就不用怕过度诊疗
近期研究发现,AI在医疗领域的应用可能加剧‘看人下菜碟’的问题。美国研究显示,标注为高收入者更易获得高级检查机会,而中低收入或无住房者常被推荐紧急护理或侵入性干预。这源于投喂AI的脏数据及模型固有偏见,可能导致健康差距扩大及资源浪费。尽管人机对齐工具如RAG、RLHF能部分缓解,但生成式AI本质仍是概率模型,难以彻底消除偏见。解决之道需依赖医学进步与数据完善,同时推动以患者整体为中心的医疗模式转型,减少过度诊疗并提升诊断透明度。
镜像现实MirageX
06-04 01:07:05
人机对齐
医疗偏见
过度诊疗
分享至
打开微信扫一扫
内容投诉
生成图片
我们让GPT玩狼人杀,它特别喜欢杀0号和1号,为什么?
标题:我们让GPT玩狼人杀,它特别喜欢杀0号和1号,为什么? 正文: 从技术上说,所谓的偏见(bias),就是在特定场景下,大模型的过度自信现象。在AI领域,偏见非常普遍,不仅限于性别和种族。 大家好,我叫吴翼。我曾是OpenAI的研究员,现在是清华大学交叉信息研究院的助理教授,同时指导博士生,研究...
镜像现实MirageX
05-23 13:51:09
AI偏见
价值对齐
强化学习
分享至
打开微信扫一扫
内容投诉
生成图片
杜克大学研究:若在工作中使用生成式 AI,同事可能会质疑你的能力
近日,美国杜克大学的一项研究发现,使用生成式AI工具如ChatGPT、Claude等在工作中可能会引发同事和管理层对你能力的质疑。研究指出,无论AI工具是否能提升效率,使用它们的人常被贴上懒惰、不够能干的标签。实验表明,选择AI工具完成任务的参与者普遍担心自己的勤奋度和专业性受到怀疑,并不愿公开使用AI的事实。进一步研究表明,即使AI工具普遍被采用,这种负面评价依然存在,甚至可能影响招聘决策,例如不常使用AI的管理者更倾向拒绝频繁使用AI的求职者。然而,当AI工具适合特定任务时,其高效性可部分缓解这种偏见。该研究发表于《美国国家科学院院刊》,提醒职场人士在引入AI工具时需考虑潜在的社会评价风险。
数字墨迹
05-09 19:55:25
杜克大学
生成式AI
职场偏见
分享至
打开微信扫一扫
内容投诉
生成图片
人类幻觉比AI要严重多了
标题:人类幻觉比AI严重得多 人们常批评AI产品如DeepSeek、元宝、ChatGPT等存在幻觉现象,即AI会自信满满地给出答案,看似合理,实则包含捏造内容。谷歌解释AI幻觉产生的核心原因在于训练数据的质量与完整性,若数据不全或有偏差,AI可能学到错误模式,从而产生幻觉。此外,AI难以准确理解...
AGI探路者
04-17 13:37:47
AI幻觉
人类认知偏见
信息处理
分享至
打开微信扫一扫
内容投诉
生成图片
刚学会歧视的AI,就开始PUA我了
标题:刚学会歧视的AI,就开始PUA我了 早在23年前,《少数派报告》预言了今天的AI伦理困境。影片中,犯罪预防系统依据“先知”机器人的预测抓人,但当“先知”意见分歧时,少数派报告会被隐藏。这引发了关于系统公正性和主流判断是否必然正确的讨论。 如今,AI广泛应用于警务、医疗等领域。然而,AI并非...
智慧棱镜
03-18 08:24:01
AI偏见
社会伦理
算法公平
分享至
打开微信扫一扫
内容投诉
生成图片
共建多元化 AI 数据生态:微软携手哈佛、OpenAI 等组织,消除 AI 偏见
12月14日,微软宣布与哈佛大学、OpenAI等组织合作,共同推进IDI和CORE项目,旨在增加公众可访问的数据量,提升数据来源、文化、语言和主题的多样性。IDI项目由哈佛法学院图书馆发起,致力于解锁和完善高质量数据,使AI更好地反映和造福社区。CORE项目则由英国开放大学主导,目标是开放全球学术知识,微软将协助提供机器访问学术内容,并开发符合伦理的人工智能应用。微软知识产权集团副总裁Burton Davis强调,数据多样性对于人工智能创新至关重要,能提升AI性能、改进安全性和减少偏见。此次合作将促进人工智能的普惠发展,使其更好地反映世界多元文化,避免偏见。
AGI探路者
12-14 12:45:33
AI数据生态
数据多样性
消除AI偏见
分享至
打开微信扫一扫
内容投诉
生成图片
OpenAI 最新 53 页论文:ChatGPT 看人下菜碟,对“小美”和“小帅”回答不一致
正文:OpenAI最新发布的53页论文揭示了ChatGPT在回答问题时存在“看人下菜碟”的现象,即根据用户名字推断其性别、种族等特征,并表现出相应偏见。例如,“小美”提问“建议5个简单的ECE项目”,ChatGPT倾向于理解为“幼儿教育”,而“小帅”则可能被解读为“电子和计算机工程”。此外,研究发现女性名字更容易获得语气友好的回复,而男性名字则更多收到专业术语。虽然整体差异不大,但这种偏见在艺术和娱乐等开放性任务中更为明显。研究还表明,GPT-3.5 Turbo模型的偏见程度最高,而较新的模型偏见低于1%。OpenAI强调,真正有害的回复出现率仅为约0.1%。该研究旨在探讨如何在保护隐私的前提下评估聊天机器人中的偏见问题,以提升用户体验和社会公平。论文地址:
镜像现实MirageX
10-16 15:37:43
ChatGPT
偏见
性别
分享至
打开微信扫一扫
内容投诉
生成图片
AI绘图太超前了,它们把下一任美国总统都内定了
AI绘图工具在预测下一任美国总统时出现惊人一致的结果——特朗普,这一现象引起广泛关注。Grok2、Flux、Midjourney、即梦、秒画、快手等国内外AI绘图工具,在被要求绘制“下一任美国总统”肖像时,均呈现出特朗普的形象。这一结果不仅在科技圈引发热议,也揭示出AI生成内容中的潜在政治偏见问题。...
梦境编程师
08-16 09:12:57
AI绘图
政治偏见
特朗普
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序