1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

南京大学和旷视研究院联手推出了一种革新性的无监督范式,无需人工标注或GPT-4参与,显著降低了视觉大模型的对齐成本。他们针对视觉语言模型(VLM)的偏好对齐问题,研发了Self-Supervised Visual Preference Alignment(SeVa)方法。SeVa通过自动化构建正负样本,解决了模型在理解和用户体验上的不足,如对指令的遵循、幻觉回答减少等。研究团队利用LLaVa-1.5模型进行实验,结果显示,仅用少量无监督数据就能提升模型性能,且整个过程成本低、效率高。SeVa不仅提高了模型的指令理解能力,还增强了回答的一致性和鲁棒性,使其输出更符合人类偏好。这项成果已在GitHub开源,为视觉模型的优化提供了新的可能性。

原文链接
本文链接:https://kx.umi6.com/article/1909.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
谷歌&MIT何恺明团队:视觉大模型像LLM一样高效扩展
2024-10-20 20:01:11
字节视觉大模型负责人杨建朝今日内部官宣休息,周畅接任
2025-07-17 17:28:24
无需人类或GPT-4打标签!南大&旷视研究院无监督范式大幅降低视觉大模型对齐成本
2024-06-23 12:49:46
IDEA研究院发布DINO-X目标检测视觉大模型
2024-11-22 20:10:15
OpenAI 为动画长片提供工具和资源支持,力图证明 AI“拍电影”比好莱坞更快更便宜
2025-09-08 17:03:11
谷歌nano banana成功后,OpenAI花11亿买了一家公司
2025-09-08 18:02:57
拜拜Claude!阿里最强万亿模型编程秒了Opus4,实测在此
2025-09-06 12:37:03
两部门要求推进“人工智能 +”能源高质量发展,虚拟电厂概念相关企业直线涨停
2025-09-08 10:55:15
Nano Banana有点ChatGPT时刻的味儿了
2025-09-07 10:44:01
消息称博通有望拿下苹果、xAI 的 AI ASIC 订单
2025-09-09 11:12:15
Hinton万万没想到,前女友用ChatGPT跟他闹分手
2025-09-08 17:02:02
开放全栈!超越π0,具身智能基础大模型迎来真·开源,开发者狂喜
2025-09-08 13:58:15
碳基生命如何面对硅基挑战?
2025-09-08 14:59:20
24小时热文
更多
扫一扫体验小程序