综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年3月,Anthropic研究员Nicholas Carlini利用Claude模型,在90分钟内发现GitHub热门项目Ghost CMS的首个高危漏洞,窃取管理员API密钥。该系统以安全性著称,拥有5万星标,此前20年未曝严重漏洞。此外,Claude还挖掘出Linux内核中自2003年起存在的多个远程可利用漏洞。研究显示,大语言模型能力正指数级增长,仅需4个月即可翻倍,预计未来普通模型也能完成类似任务。然而,这种技术可能被攻击者滥用,快速发现并利用漏洞,对全球软件安全构成威胁。Nicholas呼吁业界立即重视大模型安全问题,共同应对潜在风险。
原文链接
阿里云神秘团队曝光:AI时代的新蓝军
想象这样一个场景:一封看似正常的邮件中,隐藏着一张伪装成图片的恶意指令。AI读取后被感染,并将病毒传播给其他AI或人类,导致信息泄露和更大范围的危机。这不是科幻,而是正在发生的现实——攻击已从“人为传播”转向“智能体之间的自我扩散”。研究人员甚至成功创造了第一代...
原文链接
全国两会期间,人工智能成为热议话题。张天任建议制定《人工智能管理法》,强调数据保护与安全机制,规范数据使用范围和共享审批。刘永好分享了大模型在办公效率提升中的应用,新希望集团已接入AI系统提升管理精细化。齐向东聚焦安全层面,提出建立适配大模型的纵深防御体系,明确安全主体责任和技术保障要求。专家们一致认为,需借鉴‘框架立法+动态调整’模式,确保法律前瞻性和灵活性,应对快速发展的技术。
原文链接
大模型时代,企业使用云上模型的痛点有哪些?你可能会说模型不够精准或成本太高,但这些问题未来有望通过技术进步解决。例如,自豆包大模型将价格降至“厘”时代后,行业纷纷跟进,成本不再是主要问题。
然而,安全才是更值得关注的问题。伴随模型能力的快速发展,企业在使用大模型时面临的安全挑战越来越多,如用户数据泄...
原文链接
标题:大模型越狱攻击新基准与评估体系
香港科技大学(广州)USAIL研究团队提出了一套新的大语言模型(LLM)越狱攻击基准与评估体系——JailTrackBench,全面分析了影响大模型安全性的关键因素。研究揭示了模型大小、安全对齐情况、系统提示和模板类型等因素对越狱攻击防御能力的影响。
JailT...
原文链接
加载更多
暂无内容