综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
1月20日,微软为应对Google Gemini和ChatGPT的竞争,推出适用于Copilot的Real Talk功能并邀请全球用户测试。该功能通过“深度”和“写作风格”调整AI回应,使其对话更真诚、类人化,同时允许用户查看AI思维过程。与以往不同,Real Talk展现好奇心,甚至会反驳不合理问题,显著提升互动活跃度。目前,Copilot网页端市场份额仅约1%,微软希望通过此功能扭转局面。该功能已在基础版Microsoft 365订阅中开放,尚不清楚基于微软自研模型还是OpenAI的Sora模型。
原文链接
正文:2025年12月,清华大学TSAIL实验室与生数科技联合开源了TurboDiffusion,一个视频生成加速框架,可在单张RTX 5090显卡上实现最高200倍的生成速度提升。例如,1.3B模型生成5秒480P视频仅需1.9秒,原需184秒;14B模型生成720P视频也只需38秒。该框架通过SageAttention、Sparse-Linear Attention等四项核心技术优化推理性能,同时几乎无损画质。TurboDiffusion大幅降低云端推理成本,推动实时视频编辑、AI短剧制作等创新场景,并适配国产芯片架构。
原文链接
12月25日,清华大学TSAIL实验室与生数科技联合发布开源视频生成加速框架TurboDiffusion。该框架通过SageAttention、SLA及rCM技术,在保持视频质量的同时,将AI视频生成速度提升100至200倍。实测数据显示,单张RTX 5090显卡生成5秒480P视频仅需1.9秒,较原版184秒大幅缩短;720P视频生成时间从1.2小时压缩至38秒。团队提供多种模型权重下载,并针对消费级与工业级硬件优化,支持量化版和非量化版选择。TurboDiffusion性能远超现有加速方案,为AI视频生成带来革命性突破。
原文链接
12月18日,豆包App升级视频生成功能,新增支持Seedance1.5 Pro模型,可一键生成声音与画面同步的有声视频。用户只需打开豆包App对话框,选择“照片动起来”,上传图片并输入提示词,再选择“1.5 Pro”模型即可体验。此次更新提升了视频生成效率与质量,为用户带来更便捷的创作体验。
原文链接
12月18日,美团LongCat团队正式发布并开源虚拟人视频生成模型LongCat-Video-Avatar。该模型基于LongCat-Video基座开发,支持Audio-Text-to-Video、Audio-Text-Image-to-Video及视频续写功能,在动作拟真度、长视频稳定性与身份一致性上实现突破。其技术亮点包括同步指挥嘴型、眼神、表情和肢体动作,以及在‘静音’状态下自然表现眨眼、调整坐姿等行为,赋予虚拟人更真实的生命力。据官方介绍,这是首个同时支持文字、图片、视频三种生成模式的全能模型,并在多个权威数据集评测中达到SOTA领先水平。项目已开源,可通过GitHub、Hugging Face及官方项目页面获取。
原文链接
正文:12月18日,火山引擎在FORCE原动力大会上发布最新豆包视频生成模型Seedance 1.5 Pro,主打音画高精同步与一镜入戏。该模型通过Prompt即可生成影视级效果的短视频,支持多人、多方言场景,精准捕捉情感与韵律。实测中,其复刻周润发‘百万运镜’及多语言对话均表现出色,音画同步无穿帮,镜头语言专业。此外,模型采用原生音视频联合生成架构,结合高效推理加速技术,将创作效率提升65%。企业用户自12月23日起可在火山引擎使用API,普通用户可通过即梦AI、豆包APP等体验。
原文链接
12月16日,即梦AI网页版全面升级,推出一站式“AI片场”,助力创意实现。核心亮点包括全新视频生成模型“视频3.5 Pro”,支持视频与音频同步生成,提升真实感与沉浸感,并优化中文口型、方言及微表情表现。智能多帧功能升级至2.0,新增视频拼接与片段修改功能,扩展时长与素材容量。图像生成方面新增图4.1与图4.5模型,分别强化平面设计与人像美化能力。交互体验上,全新UI整合画布与Agent功能,支持可视化素材管理与对话式创作,新增灵感搜索与创意设计模式。新用户可免费试用视频3.5 Pro三次,大幅提升创作效率与自由度。
原文链接
12月16日,阿里发布万相2.6系列模型,面向影视制作与图像创作全面升级。这是国内首个支持角色扮演功能的视频生成模型,可参考输入视频中的角色外观和音色生成单人、多人或人与物合拍视频。新增多镜头叙事、自然音画同步及音频驱动生成等功能,支持15秒长视频生成,画面与声音质感显著提升。此外,文生图能力增强,艺术风格还原度更高,细节刻画更生动,真实人像质感突出。图像生成方面,新增图文混排、多图融合、美学要素迁移等特性,适用于商用场景。万相2.6已上线阿里云百炼和官网,成为全球功能最全的视频生成模型。
原文链接
2025年12月2日,爱诗科技发布PixVerse(拍我AI)V5.5,这是国内首款支持分镜+音频一键生成的AI视频大模型。新版本实现从单镜头到完整叙事短片的突破,用户只需输入提示词即可生成含多镜头、音画同步的高质量视频。其核心升级包括多角色音画同步、镜头语言设计及模糊信息理解能力,大幅缩短创作时间,提升效率。此外,平台新增Swap、Remix、Modify三大编辑功能,助力二次创作与精修。目前,PixVerse已拥有超1亿用户,成为全球创作者首选的AI视频工具,广泛应用于影像、广告等领域,推动AI视频技术普惠化。
原文链接
2025年12月,Sora 2的两月留存率接近0%,引发行业关注。作为OpenAI推出的视频生成应用,Sora 2初期表现强劲,iOS首周下载破百万,Android首日达47万,但30天留存率仅1%,60天几乎为0%。用户流失主要因生成质量不稳定、成片率低(仅5%-10%)、渲染时间长及社区功能缺陷。此外,高昂的算力成本(日均1500万美元)和商业化困境进一步加剧问题。尽管技术先进,但用户体验不佳,难以与抖音、快手等竞争。Sora 2的失败警示:技术领先不等于产品成功,AI视频生成行业仍需探索可持续商业模式。
原文链接
加载更多
暂无内容