综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
11月21日,腾讯混元大模型团队宣布开源最新视频生成模型HunyuanVideo 1.5。该模型基于Diffusion Transformer(DiT)架构,参数量为8.3B,是一款轻量级工具,可生成5-10秒高清视频。据悉,这一模型已在“腾讯元宝”平台上线,进一步提升了视频生成的效率与质量。此次开源将为开发者和研究者提供更强大的技术支持,推动视频生成领域的发展。(记者 李佳怡)
原文链接
10月24日,火山引擎正式上线豆包视频生成模型1.0profast。新模型在继承Seedance1.0pro核心优势基础上,生成速度提升约3倍,720P的5秒视频仅需10秒完成,价格直降72%。官方数据显示,制作一条5秒1080P视频成本为1.03元,万元预算可生成9709条视频,效能较pro版提升3.56倍,较lite版提升2.38倍。此外,模型强化了指令遵循、多镜头叙事和细节表现力,在图生视频方向效果优于全球主流模型Veo 3.0 Fast,实现高效降本的同时保持高质量内容产出。
原文链接
美团最新开源的视频生成模型LongCat-Video,以13.6B参数量成为当前开源领域的SOTA(最佳性能)模型。这款模型支持文生视频、图生视频以及视频延长功能,能够生成长达数分钟的高质量视频,画质清晰且物理逻辑逼真。
官方演示中,无论是空中滑板、特效变身,还是第一视角骑行视频,LongCat-V...
原文链接
10月27日,美团LongCat团队发布并开源LongCat-Video视频生成模型。该模型在文生、图生视频任务上达到开源SOTA水平,支持分钟级长视频连贯生成,保障跨帧时序一致性与物理运动合理性。基于Diffusion Transformer架构,模型通过“条件帧数量”区分任务,原生支持文生、图生及视频续写三大核心功能,形成完整任务闭环。其文生视频可生成720p、30fps高清内容,精准解析文本细节;图生视频严格保留图像属性与风格;视频续写是其核心能力,支持多帧续接长视频内容。依托创新机制,模型可稳定输出5分钟级长视频,无质量损失。项目已开源,详见GitHub与Hugging Face链接。
原文链接
10月27日,美团LongCat团队正式发布并开源视频生成模型LongCat-Video。该模型针对高分辨率、高帧率视频生成的计算瓶颈,采用“二阶段粗到精生成(C2F)+ 块稀疏注意力(BSA)+ 模型蒸馏”三重优化技术,将视频推理速度提升至10.1倍。这一创新显著提高了视频生成效率,为行业带来突破性进展。
原文链接
2025年10月17日凌晨,谷歌发布视频生成模型Veo 3.1,新增叙事音频控制、首尾帧参考等功能,接入Gemini API与Vertex AI,用户可通过Flow或Gemini体验。新版本支持多人物场景生成、音画同步及最长148秒的视频片段,分辨率可达1080p/24fps。Flow平台数据显示,用户已生成超2.75亿个视频。新增功能提升了创意编辑能力,但成片质感较Veo 3进步有限,复杂场景表现仍有不足。此次更新被视为小升级,谷歌年底或将发布更大更新,可能结合Gemini 3全家桶。Sora 2或面临竞争压力。
原文链接
10月16日,谷歌发布视频生成模型Veo 3.1,新增音频支持、对象添加及移除功能。新版本在音频输出、精细化编辑和图像转视频效果方面显著提升,可生成更逼真的视频片段并精准匹配用户提示词。Veo 3.1支持向视频中自然融入新对象,同时预告未来可在Flow工具中移除现有对象。此前功能如角色塑造、首尾帧生成视频及延长时间等也全面升级,现均支持音频。该模型正逐步部署至Flow、Gemini应用、Vertex AI及Gemini API平台。自5月Flow上线以来,用户已创作超2.75亿个视频。
原文链接
北京时间10月1日凌晨,OpenAI发布新一代视频生成模型Sora 2,新增音频生成功能,拟真效果和物理规律表现显著提升。用户可通过录制视频和语音完成身份验证,在生成内容中“客串”自己或他人。Sora 2应用已在iOS上架,采用邀请制,初期将在美国和加拿大开放,并提供宽松创作额度。OpenAI表示,未来可能推出付费生成选项以应对算力限制。为保障安全,系统会屏蔽不安全内容,所有视频均带水印与元数据标识,用户肖像仅在本人同意下使用。此外,OpenAI计划扩充人工审核团队,重点审查敏感内容。公司称,Sora 2是迈向通用世界模拟器的重要一步。
原文链接
8月28日,字节跳动推出全新视频生成模型OmniHuman-1.5。该模型结合多模态大语言模型与扩散Transformer技术,模拟‘深思规划’与‘直觉反应’两种思维模式,可生成超一分钟的高质量动态视频,支持流畅镜头运动、复杂角色互动及高度动态动作表现。这一创新标志着视频生成领域的重要突破,为内容创作带来更多可能性。
原文链接
8月26日,阿里开源多模态视频生成模型通义万相Wan2.2-S2V。该模型仅需一张静态图片和一段音频,即可生成面部表情自然、口型一致的电影级数字人视频,单次生成时长可达分钟级。这一技术突破为内容创作提供了高效工具,展现了AI在视频生成领域的潜力。
原文链接
加载更多
暂无内容