综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
9月19日,通义万相正式开源全新动作生成模型Wan2.2-Animate。该模型可驱动人物、动漫形象及动物照片,广泛适用于短视频创作、舞蹈模板生成和动漫制作等领域。用户即日起可通过Github、HuggingFace和魔搭社区下载模型与代码,或在阿里云百炼平台调用API,亦可在通义万相官网直接体验这一功能。
原文链接
9月19日,阿里通义万相发布全新动作生成模型Wan2.2-Animate并开源。该模型支持驱动人物、动漫及动物照片,可应用于短视频创作、舞蹈模板生成等领域。相比前代Animate Anyone,新模型在人物一致性、生成质量等方面大幅提升,同时支持角色模仿和角色扮演两种模式。角色模仿可迁移视频中的动作和表情至图片角色,角色扮演则替换视频角色为图片角色,保留环境与动作。团队构建大规模人物视频数据集进行后训练,采用骨骼信号和隐式特征实现精准复刻,并设计光照融合LoRA优化效果。实测显示,其性能超越StableAnimator、LivePortrait等开源模型及部分闭源模型。用户可通过Github、HuggingFace、魔搭社区或阿里云百炼平台获取模型和代码。
原文链接
北大和人大团队联合发布人形机器人通用大模型Being-M0,实现精细动作跨平台迁移。团队构建了百万规模动作数据集MotionLib,通过自动化流程处理超2000万段视频,生成100万条高质量动作序列,规模达现有最大数据集的15倍。基于此,Being-M0模型验证了“大数据+大模型”在动作生成中的协同效应,支持从语言到动作的端到端生成,并提出MotionBook框架,解决传统VQ技术的局限性。此外,团队设计了“优化+学习”两阶段方法,实现人体动作向宇树H1、H1-2、G1等多款机器人平台的高效迁移。Being-M0为通用具身智能奠定基础,未来将进一步提升人形机器人的自主性和通用能力。
原文链接
加载更多
暂无内容