
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
5月12日,英伟达与麻省理工学院(MIT)联合推出Audio-SDS,这是一种基于文本条件的音频扩散模型扩展技术。研究人员首次将Score Distillation Sampling(SDS)技术应用于音频领域,无需依赖大规模特定数据集,即可实现FM合成器参数校准、物理冲击音合成及音源分离三大任务。Audio-SDS结合了预训练模型的生成能力与参数化音频表示,能通过高级文本提示调整相关参数。实验显示,该技术在主观听觉测试和多项客观指标上表现优异。尽管如此,模型覆盖范围、潜在伪影及优化敏感性等问题仍待解决。这项技术突破了传统音频生成模型的局限,为AI音效生成提供了新方向。
原文链接
加载更多

暂无内容