综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2月14日,字节跳动发布新一代视频生成模型Seedance 2.0,获央视财经点赞,称其“改变电影制作生态,让中国AI技术惊艳世界”。该模型采用多模态音视频联合生成架构,支持文字、图片、音频、视频混合输入,内置“导演脑”,可自主设计分镜,精准还原复杂脚本,保持主体一致性。其物理动态与光影效果逼近实拍,画面可用率达业界顶尖水平,支持多种风格一键生成高清商用视频。《黑神话:悟空》制作人冯骥评价其为“当前地表最强视频生成模型”,认为将颠覆游戏CG制作流程。国外反响热烈,马斯克称“发展太快”,美国导演感叹“好莱坞要被AI颠覆”。
原文链接
2月12日,豆包视频生成模型Seedance 2.0正式上线,接入豆包App、电脑端及网页版。新模型支持原声音画同步、多镜头长叙事及多模态可控生成,用户只需输入提示词和参考图,即可生成带完整原生音轨的多镜头视频。Seedance 2.0能自动解析叙事逻辑,确保生成的镜头序列在角色、光影、风格与氛围上高度统一,为用户提供更优质的创作体验。
原文链接
《科创板日报》1月31日讯,可灵AI推出新一代视频生成模型可灵3.0系列,目前处于内测阶段。该系列包括可灵视频3.0、可灵视频3.0 Omni和可灵图片3.0,覆盖图片生成、视频生成、视频编辑及后期处理等影视制作全流程。这一更新标志着AI技术在影视领域的进一步拓展,为内容创作者提供更高效、智能的工具支持。
原文链接
12月18日,美团LongCat团队正式发布并开源虚拟人视频生成模型LongCat-Video-Avatar。该模型基于LongCat-Video基座开发,支持Audio-Text-to-Video、Audio-Text-Image-to-Video及视频续写功能,在动作拟真度、长视频稳定性与身份一致性上实现突破。其技术亮点包括同步指挥嘴型、眼神、表情和肢体动作,以及在‘静音’状态下自然表现眨眼、调整坐姿等行为,赋予虚拟人更真实的生命力。据官方介绍,这是首个同时支持文字、图片、视频三种生成模式的全能模型,并在多个权威数据集评测中达到SOTA领先水平。项目已开源,可通过GitHub、Hugging Face及官方项目页面获取。
原文链接
11月21日,腾讯混元大模型团队宣布开源最新视频生成模型HunyuanVideo 1.5。该模型基于Diffusion Transformer(DiT)架构,参数量为8.3B,是一款轻量级工具,可生成5-10秒高清视频。据悉,这一模型已在“腾讯元宝”平台上线,进一步提升了视频生成的效率与质量。此次开源将为开发者和研究者提供更强大的技术支持,推动视频生成领域的发展。(记者 李佳怡)
原文链接
10月24日,火山引擎正式上线豆包视频生成模型1.0profast。新模型在继承Seedance1.0pro核心优势基础上,生成速度提升约3倍,720P的5秒视频仅需10秒完成,价格直降72%。官方数据显示,制作一条5秒1080P视频成本为1.03元,万元预算可生成9709条视频,效能较pro版提升3.56倍,较lite版提升2.38倍。此外,模型强化了指令遵循、多镜头叙事和细节表现力,在图生视频方向效果优于全球主流模型Veo 3.0 Fast,实现高效降本的同时保持高质量内容产出。
原文链接
美团最新开源的视频生成模型LongCat-Video,以13.6B参数量成为当前开源领域的SOTA(最佳性能)模型。这款模型支持文生视频、图生视频以及视频延长功能,能够生成长达数分钟的高质量视频,画质清晰且物理逻辑逼真。
官方演示中,无论是空中滑板、特效变身,还是第一视角骑行视频,LongCat-V...
原文链接
10月27日,美团LongCat团队发布并开源LongCat-Video视频生成模型。该模型在文生、图生视频任务上达到开源SOTA水平,支持分钟级长视频连贯生成,保障跨帧时序一致性与物理运动合理性。基于Diffusion Transformer架构,模型通过“条件帧数量”区分任务,原生支持文生、图生及视频续写三大核心功能,形成完整任务闭环。其文生视频可生成720p、30fps高清内容,精准解析文本细节;图生视频严格保留图像属性与风格;视频续写是其核心能力,支持多帧续接长视频内容。依托创新机制,模型可稳定输出5分钟级长视频,无质量损失。项目已开源,详见GitHub与Hugging Face链接。
原文链接
10月27日,美团LongCat团队正式发布并开源视频生成模型LongCat-Video。该模型针对高分辨率、高帧率视频生成的计算瓶颈,采用“二阶段粗到精生成(C2F)+ 块稀疏注意力(BSA)+ 模型蒸馏”三重优化技术,将视频推理速度提升至10.1倍。这一创新显著提高了视频生成效率,为行业带来突破性进展。
原文链接
2025年10月17日凌晨,谷歌发布视频生成模型Veo 3.1,新增叙事音频控制、首尾帧参考等功能,接入Gemini API与Vertex AI,用户可通过Flow或Gemini体验。新版本支持多人物场景生成、音画同步及最长148秒的视频片段,分辨率可达1080p/24fps。Flow平台数据显示,用户已生成超2.75亿个视频。新增功能提升了创意编辑能力,但成片质感较Veo 3进步有限,复杂场景表现仍有不足。此次更新被视为小升级,谷歌年底或将发布更大更新,可能结合Gemini 3全家桶。Sora 2或面临竞争压力。
原文链接
加载更多
暂无内容