
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
标题:媲美GPT-4o的视觉生成神器:港科广字节联合发布ComfyMind
正文:
图像生成、视频制作、照片精修通常需要借助不同模型,过程繁琐。如今,由香港科技大学(广州)与字节跳动合作开发的开源框架ComfyMind,让用户只需一句话描述创意,即可一键生成高质量视觉作品。
ComfyMin...
原文链接
5月20日,腾讯正式推出混元游戏视觉生成平台,这是基于混元大模型开发的首个工业级AIGC(人工智能生成内容)游戏内容生产引擎。该平台能够显著优化游戏资产生成及制作流程,为游戏美术设计师提供高效AI工具,助力快速产出高质量的游戏素材和概念草案,设计效率可提升数十倍。目前,该平台已通过腾讯混元官网向游戏行业设计师开放体验申请入口。
原文链接
质量无损,算力减半!达摩院开源视觉生成新架构DyDiT亮相ICLR 2025
达摩院在ICLR 2025上发布的DyDiT架构,通过动态调整时间步长与空间区域的计算分配,成功将DiT模型的推理算力削减51%,生成速度提升1.73倍,同时保持生成质量几乎无损。此方法仅需3%的微调成本,即可显著优化...
原文链接
最强视觉生成模型获马斯克关注:吉卜力风格转绘不再依赖GPT
“史上最强视觉生成模型”诞生于快手。一基双子的可灵AI基础模型——文/图生图的可图和文/图生视频的可灵,均已升级至2.0版本。
可图2.0对比MidJourney 7.0,胜负比“(good+same) / (same+bad)”超300%...
原文链接
标题:13.8倍吞吐提升!浙大上海AI Lab提出视觉生成新范式:从“下一个token”到“下一个邻域”
正文:
13.8倍吞吐提升!浙大上海AI Lab等提出视觉生成新范式,从“下一个token”到“下一个邻域”
在图像/视频生成任务中,传统的“下一个token预测”方法正面临效率瓶颈。为此,浙...
原文链接
正文:【阿里巴巴】在2024年云栖大会宣布通义万相视觉生成大模型的升级,新增文生视频和图生视频功能。此模型已超越原有的文生图能力,扩展至插画设计、涂鸦作画、局部重绘、短片创作及配乐生成等场景。根据官方数据,通义万相已累计创作超过7500万张图片,吸引93万用户。最新发布的AI视频生成大模型,具备强大的动态画面生成能力,能理解概念并进行组合生成,优化中式元素表现,并支持多语言及可变分辨率生成。欲体验此项技术,请访问官网。
原文链接
加载更多

暂无内容