
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年9月,一名普通人的声音被AI克隆用于售卖保健品,揭示了AI声音克隆技术的滥用现状。仅需5-10秒音频样本,就能高精度模仿任何人的声音,相关工具和教程在市场泛滥,部分产品甚至卖出数百单。下游产业链利用明星声音快速吸粉或带货,甚至伪造体育明星代言,导致4.7万单假货售出。尽管法律明确保护声音权益,但检测AI合成声音的成本高昂且效果有限,分辨难度极大。专家警告,此类技术可能威胁声纹识别安全,未来或被用于诈骗电话等犯罪行为。
原文链接
中央网信办近日印发通知,将在全国范围内开展为期3个月的‘清朗·整治AI技术滥用’专项行动,重点整治利用AI假冒他人实施侵权违法行为的现象。这些行为包括通过AI换脸、声音克隆等深度伪造技术假冒专家、企业家、明星等公众人物进行恶意营销或诈骗。去年国庆期间,有人曾用AI捏造雷军配音,引发不良影响,雷军为此录制视频呼吁停止恶搞。今年3月,雷军在全国两会提出建议,呼吁加强对‘AI换脸拟声’违法侵权行为的治理,指出此类滥用行为可能涉及肖像权侵权、个人信息泄露及诈骗等问题,对构建良性的人工智能发展生态造成威胁。本次专项行动旨在遏制此类问题,维护网络环境健康。
原文链接
泰国总理佩通坦1月15日透露,她差点成为AI诈骗案的受害者。骗子利用AI技术克隆了某外国领导人的声音,试图让她捐款。尽管她最初回复“好的”,但因未接诈骗团伙的电话产生怀疑。最终,她在发现银行账户属外国后意识到被骗。佩通坦已将此事交由副总理兼数字经济部长处理,并提醒公众警惕此类诈骗行为。
原文链接
近期,AI语音技术引发广泛关注,特别是在雷军的AI语音事件中,其声音被克隆并用于生成接近真人讲话音质的AI音频,引发舆论热潮。这些音频内容在抖音、快手和B站等互联网平台传播,部分包含了骂人、恶搞小米产品的语音。这一现象不仅挑战了公众人物的隐私权,也引发了关于AI音频技术责任归属的讨论。
AI音频制...
原文链接
加载更多

暂无内容