2025年7月,中国人民大学与上海AI Lab联合团队发现大模型隐私保护与公平性存在“跷跷板效应”,强化隐私保护会导致公平性下降高达45%。研究指出,耦合神经元是问题根源,并提出免训练方案SPIN,通过精准抑制0.00005%的神经元解耦隐私与公平冲突。实验表明,SPIN显著提升Qwen2、Llama2等模型的公平性与隐私性(分别提升12.2%/14.0%和3.8%/12.1%),同时保持通用能力稳定。该方法对恶意数据免疫,仅需少量数据即可高效部署。论文由钱辰、刘东瑞等共同完成,通讯作者为刘勇和邵婧。
原文链接
本文链接:https://kx.umi6.com/article/22521.html
转载请注明文章出处
相关推荐
换一换
IDC评测9家座舱大模型产品 斑马获最多项满分推荐
2025-07-18 11:36:59
中国AI云,开始「抢座次」了
2025-11-20 11:17:00
把枯燥的工作先扔给大模型?
2025-08-15 12:12:45
中国中文信息学会2025学术年会暨第二届中国大模型大会(CIPS & CLM 2025)于10月28日在北京盛大开幕
2025-10-30 18:52:50
美团发布并开源 LongCat-Flash-Chat 大模型:总参数 560B,AI 智能体任务表现突出
2025-09-01 11:16:10
DeepSeek删豆包冲上热搜,大模型世子之争演都不演了
2025-08-21 13:31:42
啊?微博7800美元训的大模型,数学能力超了DeepSeek-R1
2025-11-18 14:20:39
你用的大模型是什么MBTI?
2025-09-23 20:23:14
如何避免成为AI墓地的一员?
2025-07-23 13:50:51
百度生成式AI和大模型专利中国第一,全栈创新驱动AI应用领先
2025-07-18 16:41:37
一场「狼人杀」,考倒了一堆大模型
2025-08-28 14:28:50
开源 AI 模型 TOP5,被中国厂商包圆
2025-10-15 18:39:57
关于 AI Infra 的一切
2025-08-11 19:08:22
624 文章
361677 浏览
24小时热文
更多
-
2025-12-08 23:53:52 -
2025-12-08 22:52:38 -
2025-12-08 22:51:57