综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年1月,NVIDIA在CES上发布RTX优化与全新开放权重模型,助力创作者以更高效率使用视觉生成式AI。借助ComfyUI等开源工具,用户可在RTX PC本地运行FLUX.2、LTX-2等主流模型,生成高质量图像与视频,同时节省云服务成本。FLUX.2擅长文生图,提示词需清晰具体;LTX-2专攻图生视频,结合镜头语言与环境氛围实现分镜式创作。显存需求随模型复杂度增加,建议RTX 50系列GPU搭配FP4模型以优化性能。此外,NVIDIA提供3D引导Blueprint,进一步推动专业创意工作流发展。
原文链接
标题:媲美GPT-4o的视觉生成神器:港科广字节联合发布ComfyMind
正文:
图像生成、视频制作、照片精修通常需要借助不同模型,过程繁琐。如今,由香港科技大学(广州)与字节跳动合作开发的开源框架ComfyMind,让用户只需一句话描述创意,即可一键生成高质量视觉作品。
ComfyMin...
原文链接
5月20日,腾讯正式推出混元游戏视觉生成平台,这是基于混元大模型开发的首个工业级AIGC(人工智能生成内容)游戏内容生产引擎。该平台能够显著优化游戏资产生成及制作流程,为游戏美术设计师提供高效AI工具,助力快速产出高质量的游戏素材和概念草案,设计效率可提升数十倍。目前,该平台已通过腾讯混元官网向游戏行业设计师开放体验申请入口。
原文链接
质量无损,算力减半!达摩院开源视觉生成新架构DyDiT亮相ICLR 2025
达摩院在ICLR 2025上发布的DyDiT架构,通过动态调整时间步长与空间区域的计算分配,成功将DiT模型的推理算力削减51%,生成速度提升1.73倍,同时保持生成质量几乎无损。此方法仅需3%的微调成本,即可显著优化...
原文链接
最强视觉生成模型获马斯克关注:吉卜力风格转绘不再依赖GPT
“史上最强视觉生成模型”诞生于快手。一基双子的可灵AI基础模型——文/图生图的可图和文/图生视频的可灵,均已升级至2.0版本。
可图2.0对比MidJourney 7.0,胜负比“(good+same) / (same+bad)”超300%...
原文链接
标题:13.8倍吞吐提升!浙大上海AI Lab提出视觉生成新范式:从“下一个token”到“下一个邻域”
正文:
13.8倍吞吐提升!浙大上海AI Lab等提出视觉生成新范式,从“下一个token”到“下一个邻域”
在图像/视频生成任务中,传统的“下一个token预测”方法正面临效率瓶颈。为此,浙...
原文链接
正文:【阿里巴巴】在2024年云栖大会宣布通义万相视觉生成大模型的升级,新增文生视频和图生视频功能。此模型已超越原有的文生图能力,扩展至插画设计、涂鸦作画、局部重绘、短片创作及配乐生成等场景。根据官方数据,通义万相已累计创作超过7500万张图片,吸引93万用户。最新发布的AI视频生成大模型,具备强大的动态画面生成能力,能理解概念并进行组合生成,优化中式元素表现,并支持多语言及可变分辨率生成。欲体验此项技术,请访问官网。
原文链接
加载更多
暂无内容