
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
8月11日,阿里通义发布Wan2.2-I2V-Flash模型,推理速度较Wan2.1提升12倍,价格为0.1元/秒。新模型在电影级视觉呈现、指令遵循能力、风格稳定性及动态效果上均有显著优化,并支持精准运镜和特效提示词直出。该模型已上线阿里云百炼平台,可通过API调用体验。此前7月28日,阿里开源通义万相Wan2.2系列,包括文生视频、图生视频及统一视频生成三款模型,均为业界首个使用MoE架构的视频生成模型,参数量达27B,激活参数14B,同时首创电影美学控制系统,光影与微表情等媲美专业水准。
原文链接
7月28日,阿里巴巴开源视频生成模型通义万相 Wan2.2,包括文生视频、图生视频和统一视频生成三款模型。其中,文生视频和图生视频模型首次采用MoE架构,总参数量27B,激活参数14B,并引入电影美学控制系统,光影、色彩等能力媲美专业电影水平。新模型支持复杂运动、人物交互等场景,计算资源消耗减少约50%。同时,开源的5B小尺寸统一模型可在消费级显卡上部署,数分钟生成5秒高清视频。开发者可通过GitHub、HuggingFace等平台获取代码,企业可在阿里云调用API,用户也可在官网或App体验。自今年2月起,通义万相系列模型下载量已超500万。
原文链接
加载更多

暂无内容