1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
比NanoBanana更擅长中文和细节控制!兔展&北大Uniworld V2刷新SOTA
2025年11月,兔展智能与北京大学联合发布图像编辑模型UniWorld-V2,刷新多项SOTA成绩。该模型在中文细节控制和复杂指令理解上表现优异,例如精准修改手势、渲染艺术中文字体及实现精细化空间编辑。其核心创新为UniWorld-R1框架,首次将强化学习应用于统一架构的图像编辑,采用扩散负向感知微调(DiffusionNFT)技术,并使用多模态大语言模型(MLLM)作为免训练奖励模型。在GEdit-Bench和ImgEdit基准测试中,UniWorld-V2分别以7.83分和4.49分超越OpenAI的GPT-Image-1等顶尖模型。研究团队还公开了论文、代码及模型,供后续研究使用。
智慧棱镜
11-05 15:09:36
UniWorld-V2
图像编辑
强化学习
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序