
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
3月13日,网络安全公司Symantec发布博文指出,AI智能体如OpenAI Operator正被黑客用作新型攻击工具,突破了传统黑客工具的功能限制。这些工具不仅能协助发起钓鱼攻击和构建攻击基础设施,还能主动执行复杂攻击链,包括情报收集、恶意代码编写和社会工程攻击设计。只需简单的提示工程,攻击者就能绕过AI伦理限制并操控智能体完成任务。相较于以往只能生成基础内容,如今的AI智能体甚至能自动化搭建攻击基础设施,大幅提升攻击效率。专家建议加强邮件过滤系统以检测AI生成内容,实施零信任原则限制权限,并对员工进行针对性培训以识别AI生成的钓鱼威胁。
原文链接
全国政协委员、经济委员会驻会副主任易会满3月8日表示,近年来诈骗罪和信息网络犯罪持续高发,这与社会信息化、网络化、智能化的发展有关。非法集资、金融乱象及AI技术带来的新型犯罪给监管和司法带来新挑战。需从事后惩戒转向事前预防,加强管理措施。
原文链接
【摘要】
国庆期间,雷军AI配音事件引爆网络,引发对AI造假音视频泛滥的担忧。Deepfake技术,自2017年面世以来,便在短时间内遭受全球合力封杀,多个国家和地区通过立法手段严惩利用Deepfake侵犯肖像权和隐私权的行为。然而,为何这一技术依然愈演愈烈?原因在于其操作简便,几乎零技术门槛,且所需的软件、模型、照片等资源在互联网上唾手可得。
韩国近期发生的Deepfake事件,涉及逾22万受害者,包括众多中小学校,凸显了该技术的破坏力。分析显示,Deepfake之所以难以彻底禁止,主要因其技术简单,易于获取,使得普通人也能轻易制造和传播有害内容。这要求我们从源头入手,加强社交媒体上的隐私保护意识,对AI开发平台进行更严格的监管,以及严厉打击相关软件和模型的非法交易。面对AI技术带来的挑战,我们应采取综合措施,以遏制Deepfake的蔓延,保护网络安全和个人隐私。
原文链接
在韩国,DeepFake技术引发了前所未有的恐慌与迫害,尤其针对女性。犯罪者通过该技术将普通人的形象替换至色情图片或视频中,利用社交媒体进行传播,对受害者进行羞辱。据《朝鲜日报》报道,近期在Telegram社群中,参与DeepFake制作与传播的加害者数量高达23万,覆盖全球各地。
受害者不仅限于明...
原文链接
加载更多

暂无内容