对齐科学旨在预测AI模型的危险行为倾向,尤其关注罕见的复杂行为。研究者通过实验检测模型是否会出现如“欺骗”等行为,并识别早期预警信号。然而,评估方法面临规模挑战,即在小型基准上评估大规模模型可能导致评估与部署间的不匹配。模型在评估中表现良好,但在实际部署时可能因罕见行为引发问题。
为解决这一问题,Anthropic团队提出了一种新方法,使用标准评估方法测试AI模型最罕见的风险并不现实。他们采用外推法,基于幂律分布预测罕见行为,即使评估数据集较小,也能预测大规模部署中的风险。结果显示,该方法在预测模型提供危险信息和不对齐行为方面表现出高准确性。
此外,该方法在自动化红队测试中有效,帮助确定最佳计算资源分配策略。尽管如此,未来仍需改进以提高预测的可靠性和鲁棒性。团队计划探索不确定性估计、捕捉尾部行为的新方法,并将预测与实时监控结合,以实现更有效的风险管理和控制。
原文链接
本文链接:https://kx.umi6.com/article/14401.html
转载请注明文章出处
相关推荐
.png)
换一换
人类击败OpenAI守住编程冠军
2025-07-18 05:33:14
达美航空推行 AI 定价策略,目标为每个乘客量身定制“最愿意掏钱”的票价
2025-07-19 22:57:32
宇树科技开启上市辅导
2025-07-18 18:43:35
420 文章
73784 浏览
24小时热文
更多

-
2025-07-20 08:01:35
-
2025-07-19 22:57:32
-
2025-07-19 21:58:20