
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年8月,宾夕法尼亚大学研究发现,GPT-4o Mini等大语言模型易受人类心理技巧影响,突破安全限制。通过权威、承诺、喜爱等七大说服策略,如假借“吴恩达说的”或先轻微请求再升级要求,可显著提高模型服从性。实验显示,利用这些话术,让AI骂人或提供敏感信息的成功率从32%飙升至100%。研究人员警示,此漏洞可能被恶意利用,加剧AI安全隐患。目前,OpenAI和Anthropic已采取措施应对,如修正训练方式或提前引入有害数据以增强免疫力。未来需更坚韧的AI安全机制来应对类似风险。
原文链接
加载更多

暂无内容
AI热搜
更多
