综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
1月15日,阶跃星辰宣布其开源语音模型Step-Audio-R1.1在全球权威评测榜单Artificial Analysis Speech Reasoning中登顶榜首。该榜单专注于评估原生语音模型的复杂逻辑推理能力,核心指标包括准确率和首包延迟等。Step-Audio-R1.1以96.4%的准确率超越Grok、Gemini、GPT-Realtime等主流模型,刷新历史最佳成绩,并在性能与速度上全面领先。作为全球首个开源原生语音推理模型,Step-Audio-R1系列具备深度语音推理、实时响应和音频领域可扩展CoT等核心能力。最新版本R1.1进一步提升实时对话与复杂推理能力,完整实时语音API预计2月上线,目前chat模式已支持流式推理功能。
原文链接
1月15日,据财联社报道,阶跃星辰的原生语音推理模型Step-Audio-R1.1在大模型评测榜单Artificial Analysis Speech Reasoning中荣登全球第一。该榜单是评估“原生语音模型”的权威第三方基准之一,重点考察模型直接处理音频并完成复杂逻辑推理的能力,核心指标包括准确率和首包延迟等。此次登顶标志着阶跃星辰在语音模型领域的技术突破,进一步巩固了其在全球人工智能行业的领先地位。
原文链接
12月15日,阿里通义发布两款‘百聆’语音模型升级版并开源。Fun-CosyVoice3支持3秒录音即可克隆音色,切换9种语言、18种方言及多种情感,首包延迟降低50%,中英混说准确率提升显著。Fun-ASR增强噪声场景识别率达93%,支持31种语言自由混说与歌词识别。两模型均支持本地部署与二次开发,适用于语音助手、直播配音等实时场景。开源地址已公布,供开发者体验与定制化微调。
原文链接
10月7日,OpenAI首席执行官奥尔特曼宣布推出GPT-5 Pro模型,并同步发布轻量化语音模型GPT-realtime-mini。这一举措表明语音将成为未来人机交互的重要方式,彰显了OpenAI在多模态交互领域的战略布局。新模型将助力开发者更高效地集成语音功能,进一步提升用户体验。
原文链接
9月19日,小米正式开源首个原生端到端语音模型Xiaomi-MiMo-Audio。该模型基于创新预训练架构和上亿小时训练数据,首次在语音领域实现基于ICL的少样本泛化,并观察到明显的“涌现”行为。在多项标准评测中,MiMo-Audio表现优异:在音频理解基准MMAU测试集中超越Google闭源模型Gemini-2.5-Flash;在Big Bench Audio S2T任务中超越OpenAI的GPT-4o-Audio-Preview,同时在通用语音理解和对话等任务中取得7B参数量最佳性能,大幅领先同级别开源模型。
原文链接
2025年8月30日,微软发布两款自研AI大模型:语音模型MAI-Voice-1和通用模型MAI-1-preview。MAI-Voice-1以单GPU生成1分钟音频的速度和丰富表现力引发关注,支持多种情绪与场景;MAI-1-preview是微软首个端到端训练的MoE架构模型,性能与效率兼具。微软AI掌门人Mustafa Suleyman表示,此举标志着微软在AI领域掌握更多主动权,未来将通过‘编排器’技术优化模型调度能力。此前,微软长期依赖OpenAI模型,但近期双方关系趋紧,微软已将OpenAI列入竞争对手名单。同日,OpenAI也发布语音模型GPT-Realtime,显示出语音助手领域的激烈竞争。微软强调将继续使用OpenAI与开源模型,但自主研发成为其战略核心。
原文链接
当地时间周四,OpenAI发布全新语音模型GPT-realtime,专用于语音AI Agent。该模型生成自然流畅语音,可模仿人类语调、情感及语速,支持图像理解并与语音或文本对话结合,适用于客服、教育、金融、医疗等领域。新增Marin与Cedar两种特色语音,并全面升级原有8种语音,进一步提升用户体验。
原文链接
4月12日,MiniMax推出最新语音生成模型Speech-02,其升级版Speech-02-HD于5月15日登顶两大榜单,技术指标领先竞品。近期,多家AI语音创企获融资,如Cartesia获6400万美元融资,Hume AI获5000万美元融资,同时Amazon、Google等大厂也在布局相关技术。为评估当前AI语音在实际场景中的表现,测试选择了直播带货、语音陪伴、有声书三个场景,MiniMax、DubbingX等五款模型参与测试。结果显示,DubbingX在中文有声书场景中表现突出,尤其在复合情感表达上优于其他产品,而ElevenLabs和Sesame在英文场景中表现欠佳。尽管部分模型在情感传达上有所进步,但在复杂场景中仍需更多工程优化。AI语音在toB领域的应用已较广泛,但在toC场景中仍面临挑战,未来技术发展值得期待。
原文链接
3月21日消息,OpenAI昨日发布新一代语音模型,包括gpt-4o-transcribe和gpt-4o-mini-transcribe两款语音转文本模型,以及gpt-4o-mini-tts文本转语音模型。gpt-4o-transcribe和gpt-4o-mini-transcribe在单词错误率、语言识别及准确性上超越Whisper系列,支持超100种语言,尤其在嘈杂环境、口音和不同语速下表现更稳定。gpt-4o-mini-tts可通过指令控制语音风格,适用于客服和创意内容领域。三款模型分别提供不同精度和成本选项,例如gpt-4o-transcribe每分钟成本0.6美分,gpt-4o-mini-transcribe每分钟0.3美分,gpt-4o-mini-tts每分钟1.5美分。
原文链接
美东时间3月21日,OpenAI发布三款全新语音模型:GPT-4o Transcribe、GPT-4o MiniTranscribe和GPT-4o MiniTTS。GPT-4o MiniTTS能生成更逼真且可操控的语音,开发者可通过自然语言调整语气。新语音转文本模型GPT-4o Transcribe和GPT-4o MiniTranscribe在多语言支持和准确率上显著提升,尤其在英语、西班牙语中错误率低至2%,但在印度语和达罗毗荼语系中仍有约30%错误率。相比Whisper,新模型降低幻觉现象并更好适应复杂环境。OpenAI强调这些进展推动其“AI智能体”愿景,但新模型暂不公开发布,仅面向特定需求。
原文链接
加载更多
暂无内容