2025年9月,一名普通人的声音被AI克隆用于售卖保健品,揭示了AI声音克隆技术的滥用现状。仅需5-10秒音频样本,就能高精度模仿任何人的声音,相关工具和教程在市场泛滥,部分产品甚至卖出数百单。下游产业链利用明星声音快速吸粉或带货,甚至伪造体育明星代言,导致4.7万单假货售出。尽管法律明确保护声音权益,但检测AI合成声音的成本高昂且效果有限,分辨难度极大。专家警告,此类技术可能威胁声纹识别安全,未来或被用于诈骗电话等犯罪行为。
原文链接
本文链接:https://kx.umi6.com/article/24765.html
转载请注明文章出处
相关推荐
换一换
不寒而栗!AI克隆盗用别人声音 去卖不可描述保健品
2025-09-05 17:23:07
美国多家银行:AI 显著提升生产力,部分岗位面临裁撤风险
2025-12-10 12:47:26
智元机器人回应“和宇树高价争抢 2026 总台春晚赞助席位”:不是真的
2025-12-10 15:57:24
5000亿,好莱坞巨头华纳兄弟要卖了
2025-12-10 10:39:27
腾讯混元大模型品牌 Hunyuan 更名为 HY
2025-12-10 15:53:58
围绕AI泡沫 有三大担忧都被夸大了:分析师这么解释
2025-12-10 22:12:12
为什么 Google 一直是你大爷?
2025-12-10 14:52:11
那些年,投资人错过的赛道
2025-12-10 15:52:48
皮尤研究:97% 的美国青少年每天都上网,约三成每天都用 AI 聊天机器人
2025-12-10 08:30:14
AI眼镜是下一个万亿风口还是泡沫?
2025-12-10 16:58:18
5天连更5次,可灵AI年末“狂飙式”升级
2025-12-10 14:49:52
空客获5000万欧元合同 将集成AI至法国武器与信息系统
2025-12-10 19:06:09
乐奇Rokid这一年,一路狂飙不回头
2025-12-10 21:07:37
591 文章
375382 浏览
24小时热文
更多
-
2025-12-11 00:19:01 -
2025-12-11 00:15:55 -
2025-12-10 23:15:05