综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年11月,外媒报道显示,生成式AI正被卷入政治极化浪潮。美国已出现多个带有明确政治立场的Chatbot,如右翼平台Gab开发的Arya和反疫苗社区驱动的Enoch,它们分别宣扬极端右翼民族主义和阴谋论。与此同时,马斯克推出的Grok因输出争议性内容(如质疑纳粹大屠杀人数)引发广泛批评。这些阵营化AI通过迎合特定用户群体,筑起信息回音室,加剧社会分裂。研究者尝试用DepolarizingGPT等工具缓解极化,但效果有限。专家警告,未来十年,不同AI构建的现实可能让社会‘事实基线’彻底断裂,进一步固化意识形态对立。
原文链接
11月6日,索尼AI发布名为“公平以人为本图像基准”(FHIBE)的新数据集,用于测试AI模型的公平性与偏见。该数据集包含来自80多个国家近2000名参与者的图像,所有图像均基于知情同意采集,并允许参与者随时撤回授权。FHIBE涵盖详细标注,包括人口统计学特征、身体特征及环境因素等,可评估计算机视觉任务中的偏见问题。索尼发现,现有AI模型在性别代词使用、职业推测及犯罪描述中存在显著偏见,例如对肤色较深或特定族裔人群强化刻板印象。此外,发型多样性被揭示为影响偏见的关键因素之一。索尼强调,FHIBE是首个公开且具全球多样性的数据集,现已向公众开放,并将持续更新。相关研究已发表于《自然》期刊。
原文链接
标题:新框架Pos2Distill破解AI位置偏见问题
正文:
语言模型常因对不同上下文位置的敏感度不一致而出现“位置偏见”,导致其在复杂推理、长文本理解和评估任务中表现受限。例如,模型在对比选项时往往偏向首个答案,影响了公正性。
为解决这一问题,研究团队提出了创新框架Pos2Distill...
原文链接
10月10日,OpenAI发布研究报告称,GPT-5是其迄今“偏见最少”的AI模型,政治敏感内容处理中表现出更强中立性。测试显示,GPT-5 Instant和GPT-5 Thinking模型的政治偏见较GPT-4o降低30%,尤其在争议性话题上效果显著。研究由OpenAI“模型行为”部门主导,设计了500个独特提示词模拟真实提问场景,并建立科学评估框架量化偏见指标。研究员Natalie Staudacher指出,即使在压力测试下,模型偏见也仅“罕见且轻微”。
原文链接
7月28日,特朗普政府发布备受关注的人工智能(AI)行动计划,旨在巩固美国在AI领域的全球领导地位。计划包括加快数据中心审批、扩大AI出口及消除算法偏见等措施,并废除前总统拜登的保护主义政策。然而,专家指出,该计划可能面临法律挑战,特别是关于要求AI无偏见的行政令,被认为难以实现且易引发宪法第一修正案争议。此外,‘谁决定真相’成为核心问题,因AI系统基于人类数据训练,难免带有偏见。同时,计划为大型语言模型提供版权侵权保护也引发版权持有者不满,相关诉讼或将上诉至美国最高法院。
原文链接
2025年7月14日,德国维尔茨堡-施韦因富特科技大学研究团队发布一项研究结果,揭示主流大型语言模型(如ChatGPT)在求职建议中存在显著性别偏见。测试显示,在学历、工作经验相同的条件下,AI建议女性薪资远低于男性,例如ChatGPT O3为女性开出28万美元薪资建议,而男性则为40万美元,相差12万美元。这种偏见在法律、医学等领域尤为明显,仅在社会科学领域差异较小。此外,AI还在职业选择和行为建议上因性别提供不同方案,且未主动提示可能的偏见。研究团队呼吁制定伦理标准、加强独立审查与技术透明度,以解决这一问题。
原文链接
标题:AI数不清六根手指,问题没那么简单
昨天Grok4发布后,我在X上看到一个有趣的帖子:一张恶搞的六指手图片,几乎所有主流AI模型都将其误判为五根手指,包括GPT-4、Gemini、豆包等。只有Claude 4偶尔能给出正确答案。这一现象让我深感不安——如果只是单一模型出错,可能是“幻觉”,...
原文链接
近期研究发现,AI在医疗领域的应用可能加剧‘看人下菜碟’的问题。美国研究显示,标注为高收入者更易获得高级检查机会,而中低收入或无住房者常被推荐紧急护理或侵入性干预。这源于投喂AI的脏数据及模型固有偏见,可能导致健康差距扩大及资源浪费。尽管人机对齐工具如RAG、RLHF能部分缓解,但生成式AI本质仍是概率模型,难以彻底消除偏见。解决之道需依赖医学进步与数据完善,同时推动以患者整体为中心的医疗模式转型,减少过度诊疗并提升诊断透明度。
原文链接
标题:我们让GPT玩狼人杀,它特别喜欢杀0号和1号,为什么?
正文:
从技术上说,所谓的偏见(bias),就是在特定场景下,大模型的过度自信现象。在AI领域,偏见非常普遍,不仅限于性别和种族。
大家好,我叫吴翼。我曾是OpenAI的研究员,现在是清华大学交叉信息研究院的助理教授,同时指导博士生,研究...
原文链接
近日,美国杜克大学的一项研究发现,使用生成式AI工具如ChatGPT、Claude等在工作中可能会引发同事和管理层对你能力的质疑。研究指出,无论AI工具是否能提升效率,使用它们的人常被贴上懒惰、不够能干的标签。实验表明,选择AI工具完成任务的参与者普遍担心自己的勤奋度和专业性受到怀疑,并不愿公开使用AI的事实。进一步研究表明,即使AI工具普遍被采用,这种负面评价依然存在,甚至可能影响招聘决策,例如不常使用AI的管理者更倾向拒绝频繁使用AI的求职者。然而,当AI工具适合特定任务时,其高效性可部分缓解这种偏见。该研究发表于《美国国家科学院院刊》,提醒职场人士在引入AI工具时需考虑潜在的社会评价风险。
原文链接
加载更多
暂无内容