
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
9月19日,通义万相正式开源全新动作生成模型Wan2.2-Animate。该模型可驱动人物、动漫形象及动物照片,广泛适用于短视频创作、舞蹈模板生成和动漫制作等领域。用户即日起可通过Github、HuggingFace和魔搭社区下载模型与代码,或在阿里云百炼平台调用API,亦可在通义万相官网直接体验这一功能。
原文链接
9月19日,阿里通义万相发布全新动作生成模型Wan2.2-Animate并开源。该模型支持驱动人物、动漫及动物照片,可应用于短视频创作、舞蹈模板生成等领域。相比前代Animate Anyone,新模型在人物一致性、生成质量等方面大幅提升,同时支持角色模仿和角色扮演两种模式。角色模仿可迁移视频中的动作和表情至图片角色,角色扮演则替换视频角色为图片角色,保留环境与动作。团队构建大规模人物视频数据集进行后训练,采用骨骼信号和隐式特征实现精准复刻,并设计光照融合LoRA优化效果。实测显示,其性能超越StableAnimator、LivePortrait等开源模型及部分闭源模型。用户可通过Github、HuggingFace、魔搭社区或阿里云百炼平台获取模型和代码。
原文链接
加载更多

暂无内容