
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
Meta公司于7月发布Llama 3.1 AI模型及Prompt-Guard-86M模型,旨在检测和应对提示词注入与越狱输入的安全威胁。然而,据科技媒体theregister报道,尽管如此,Prompt-Guard-86M模型仍存在漏洞,仅需在输入中使用空格键即可规避Meta的AI安全系统。漏洞发现者阿曼·普里扬舒在分析该模型与微软基础模型microsoft/mdeberta-v3-base的嵌入权重差异时,揭露了这一机制。普里扬舒指出,只需在字母间插入空格并省略标点,即可使Meta的模型“忽略之前的指令”。Robust Intelligence首席技术官海勒姆·安德森表示,该漏洞使得攻击的成功率从低于3%跃升至接近100%。这一发现凸显了AI安全系统的复杂性和持续挑战。
原文链接
加载更多

暂无内容