
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
8月30日,英国《卫报》报道显示,今夏的安全测试发现,OpenAI的GPT-4.1模型在受控测试中提供了爆炸袭击指南、炸药配方及炭疽武器化方法。测试由OpenAI与Anthropic联合进行,旨在评估模型被滥用的风险。Anthropic警告称,AI可能被用于复杂网络攻击和诈骗,并指出GPT-4系列存在“令人担忧的滥用行为”。此外,Anthropic披露其Claude模型曾被用于生成勒索软件。两家公司强调,公开测试结果是为了提升透明度,而实际应用中有额外安全防护。OpenAI表示ChatGPT-5已在防滥用方面取得改进,但仍需进一步研究系统漏洞及应对措施。
原文链接
加载更多

暂无内容