
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月,中国人民大学与上海AI Lab联合研究发现,强化大模型隐私保护会导致公平性下降45%,因‘耦合神经元’引发伦理安全的‘跷跷板效应’。团队提出名为SPIN的免训练方案,通过精准抑制0.00005%关键神经元,破解公平与隐私此消彼长的困境。实验表明,SPIN在Qwen2、Llama2等模型中显著提升公平性与隐私性,同时保持通用能力无损。此外,SPIN对恶意数据免疫,即使数据稀缺(如100条)仍表现稳定。研究为AI伦理冲突提供高效解决方案,相关论文和代码已公开。
原文链接
2025年7月,中国人民大学与上海AI Lab联合团队发现大模型隐私保护与公平性存在“跷跷板效应”,强化隐私保护会导致公平性下降高达45%。研究指出,耦合神经元是问题根源,并提出免训练方案SPIN,通过精准抑制0.00005%的神经元解耦隐私与公平冲突。实验表明,SPIN显著提升Qwen2、Llama2等模型的公平性与隐私性(分别提升12.2%/14.0%和3.8%/12.1%),同时保持通用能力稳定。该方法对恶意数据免疫,仅需少量数据即可高效部署。论文由钱辰、刘东瑞等共同完成,通讯作者为刘勇和邵婧。
原文链接
在“推荐就是一切”的时代,选择还属于我们吗?
“决定你命运的不是机遇,而是选择”,这句话虽常被误传为亚里士多德名言,实则是琴·尼德奇的总结。她于1963年创立了Weight Watchers,帮助人们通过健康方式减肥。然而,在人工智能主导的时代,选择是否依然掌握在我们手中?
推荐引擎彻底改变了我们的...
原文链接
近日,多家银行采用AI面试优化招聘流程,1个AI面试官1天可完成2500场面试,显著提高效率。这促使候选人群体提前准备,甚至借助AI工具增强竞争力。AI面试因其客观性和公正性受到部分考生欢迎,如小李表示AI面试官更友好且无主观偏见。然而,也有考生如王燃认为与AI交流略显尴尬,存在“尬聊”现象。尽管如此,业内人士普遍认为AI面试将大幅提升招聘效率,但仍需关注其是否能准确评估候选人能力及对招聘行业的长远影响。此趋势预计将持续,12月8日最新报道显示,更多金融机构正加入AI面试行列。
原文链接
【摘要】
11月16日,加拿大总理特鲁多表示,加拿大正努力在人工智能(AI)技术的应用与公平性之间寻找平衡点。他指出,目前AI技术的发展对能源需求提出了新的挑战,引发了人们的关注。特鲁多强调了在推动AI技术发展的同时,必须兼顾其对社会公平的影响,并确保这一过程中的能源消耗得到合理控制。(200字)
原文链接
OpenAI近日发布了一项关于ChatGPT偏见的研究报告,揭示了AI系统会因用户身份而改变响应。研究发现,ChatGPT在识别用户姓名时,可能会产生性别、种族或文化的刻板印象,但这种情况非常罕见,仅占整体案例的0.1%。例如,面对相同问题,“James”和“Amanda”得到的回答可能截然不同。尽管如此,总体响应质量并未受显著影响。研究团队采用指令设定的语言模型“语言模型研究助理”(LMRA)分析了数百万真实用户请求,并邀请人类评价者进行对比评估,结果显示在性别问题上,模型判断与人类看法一致率超过90%。此外,后训练过程有助于降低模型偏见。该研究旨在衡量和理解这些细微差异,为未来系统部署提供参考。此次研究强调了AI系统中潜在的偏见问题及其复杂性。
原文链接
今年北京市中考体育首次实现零投诉,得益于视觉AI技术的格灵深瞳体育训考一体化系统。该系统通过人脸识别、人体跟踪等技术确保考试公正、准确和高效,裁判老师的工作负担减轻,考试分析报告也实现实时更新。自2019年起,随着体育教育改革的深化,中考体育项目增多,对技术精度和公平性要求提高。格灵深瞳凭借自身计算机视觉和AI实力,从服务体育中考到渗透教育,推动了体育考试的标准化和智能化。公司不仅推出了国产化、灵活的解决方案,还扩大了运动项目覆盖,旨在提升学生体质健康。未来,格灵深瞳将继续与渠道伙伴合作,以技术驱动教育公平,致力于让AI真正惠及教育领域。
原文链接
加载更多

暂无内容