
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
今日,《科创板日报》报道,阶跃星辰开源了一款名为Step-Video-TI2V的图生视频模型。该模型基于30B参数的Step-Video-T2V训练而成,能够生成102帧、5秒长度、540P分辨率的视频,具有运动幅度可控及镜头运动可控两大核心特性,并且自带一定特效生成能力。目前,Step-Video-TI2V已成功适配华为昇腾计算平台,并于魔乐社区(Modelers)上线。
原文链接
3月20日,阶跃星辰开源了图生视频模型Step-Video-TI2V。该模型基于30B参数的Step-Video-T2V训练,支持生成102帧、5秒、540P分辨率的视频,具有运动幅度可控和镜头运动可控两大特色,同时具备一定特效生成能力。相比现有模型,它在动态性和稳定性间实现更佳平衡。Step-Video-TI2V已完成与华为昇腾计算平台适配,并在魔乐社区上线。核心功能包括:1. 运动幅度可控,适合不同风格创作;2. 多种运镜控制,可生成电影级效果;3. 动漫效果突出,适用于动画和短视频制作;4. 支持多尺寸生成,适应不同平台需求。模型现已开源,阶跃AI网页版和App端同步上线,未来还将通过LoRA技术增强特效能力。
原文链接
3月20日,阶跃星辰开源全新图生视频模型Step-Video-TI2V。该模型基于30B参数Step-Video-T2V训练,支持生成102帧、5秒、540P分辨率视频,在VBench-I2V测试中达到SOTA水平。模型具备运动幅度和镜头运动双重可控特性,尤其擅长动漫效果生成,适用于动画创作及短视频制作。Step-Video-TI2V已适配华为昇腾平台,用户可通过阶跃AI网页端、App端及魔乐社区体验。这是阶跃星辰近一个月内开源的第三款多模态大模型,前两款分别为文生视频模型Step-Video-T2V和语音模型Step-Audio,均达SOTA水准,吸引多家生态厂商接入。
原文链接
腾讯混元于3月6日发布并开源图生视频模型,该模型能将图片转化为5秒短视频,并自动添加背景音效。用户上传图片并描述运动和镜头调度后,模型即可生成所需视频。此外,上传人物图片并输入文本或音频,可实现“对口型”效果,支持生成跳舞视频。该模型适用于多种角色和场景,参数量为130亿,支持开发者下载并基于LoRA训练衍生模型。开源内容包括权重、推理代码和训练代码。该模型具备超写实画质、流畅动作演绎等特性,已在Github和HuggingFace社区开放。
原文链接
在2025全球开发者先锋大会上,阶跃星辰CEO姜大昕宣布,公司将于3月份开源图生视频模型,继续坚持开源策略。(《科创板日报》22日讯 记者 张洋洋)
原文链接
在线体验智谱开源的图生视频模型CogVideoX-5B-I2V,网友评价褒贬不一
智谱近日开放了清影背后的图生视频模型CogVideoX-5B-I2V及其标注模型cogvlm2-llama3-caption的源代码,让用户体验更加便捷。模型支持“一张图+提示词”生成视频,以及将视频内容转换为文本描述...
原文链接
6月7日,腾讯携手中山大学和港科大推出了升级版图生视频模型"Follow-Your-Pose-v2",发表于arXiv,新模型能根据人物图片和动作视频自动生成10秒视频,且推理速度更快,支持多人动作生成,具有强大泛化能力。此前,腾讯已发布混元文生图开源大模型加速库,生图时间缩短75%,并提供ComfyUI图形化界面降低使用门槛。
原文链接
加载更多

暂无内容