
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
12日,《科创板日报》报道,阿里通义实验室近日开源了全模态模型R1-Omni。该模型是业内首个采用具有可验证奖励的强化学习(RLVR)技术优化的全能多模态大语言模型。研究团队通过RLVR方法对开源模型HumanOmni-0.5B进行了改进,在推理能力、情感识别准确性及泛化能力上均得到大幅提升。R1-Omni不仅增强了对视觉与听觉信息的理解,还能够清晰揭示不同模态数据在情绪判断中的具体影响。这一成果标志着多模态AI技术迈出了重要一步。
原文链接
阿里通义团队于3月11日推出R1-Omni模型,该模型结合了强化学习(RLVR)与多模态技术,尤其适用于复杂全模态场景。R1-Omni通过增强透明性,使得音频和视频信息的作用更加清晰可见。在情绪识别等任务中,R1-Omni能明确展示哪些模态信息对特定判断至关重要。实验结果显示,相比原始基线模型,R1-Omni在同分布测试集上的表现提升了超过35%,而在不同分布测试集上,其泛化能力同样出色。R1-Omni开源地址已公布,包括论文、Github及模型下载链接。
原文链接
阿里开源R1-Omni,结合DeepSeek同款RLVR和全模态情感识别,网友认为这代表了可解释性与多模态学习的未来方向。
阿里通义实验室薄列峰团队开发的R1-Omni,首次将RLVR应用于全模态LLM,包括视频内容。RLVR是一种新训练范式,通过验证函数直接评估输出,无需依赖奖励模型。
薄列峰团队将RLVR与全模态LLM结合,专注于情感识别任务,涵盖视觉和音频模态。实验显示,R1-Omni在分布内和分布外数据集上均有显著提升,特别是在推理能力和鲁棒性方面。
R1-Omni在X上引发关注,有人认为其在市场营销和广告领域的潜力巨大。团队还展示了模型在推理过程中的连贯性和准确性,特别是在处理未见过的数据时表现突出。
R1-Omni模型通过冷启动策略和RLVR训练优化,确保输出符合特定格式。实验评估表明,R1-Omni在多个指标上优于其他基线模型,并在开放词汇情感测试中表现出色。
原文链接
加载更多

暂无内容