Meta公司于7月发布Llama 3.1 AI模型及Prompt-Guard-86M模型,旨在检测和应对提示词注入与越狱输入的安全威胁。然而,据科技媒体theregister报道,尽管如此,Prompt-Guard-86M模型仍存在漏洞,仅需在输入中使用空格键即可规避Meta的AI安全系统。漏洞发现者阿曼·普里扬舒在分析该模型与微软基础模型microsoft/mdeberta-v3-base的嵌入权重差异时,揭露了这一机制。普里扬舒指出,只需在字母间插入空格并省略标点,即可使Meta的模型“忽略之前的指令”。Robust Intelligence首席技术官海勒姆·安德森表示,该漏洞使得攻击的成功率从低于3%跃升至接近100%。这一发现凸显了AI安全系统的复杂性和持续挑战。
原文链接
本文链接:https://kx.umi6.com/article/4289.html
转载请注明文章出处
相关推荐
.png)
换一换
为什么一个弹幕,就能让主播喵一百声?
2025-06-24 10:15:35
攻击成功率从 3% 到接近 100%,利用空格键可绕过 Meta AI 模型安全系统
2024-07-31 11:55:45
Karpathy大神问懵DeepSeek!一个emoji竟藏了53个Token,思考10分钟没解释出来
2025-02-14 16:39:19
435 文章
64695 浏览
24小时热文
更多

-
2025-07-20 08:01:35
-
2025-07-19 22:57:32
-
2025-07-19 21:58:20