Meta公司发布全新模型"Chameleon",挑战GPT-4o的340亿参数和10万亿token训练刷新多模态SOTA。这款端到端的混合模态模型能无缝处理文本和图像,其性能接近GPT-4V,标志着多模态发展的新里程碑。Chameleon通过统一Transformer架构和早期融合技术,生成文本与图像交织的内容,且在多项任务中超越Llama 2。Meta团队在GTC 2024大会上展示这一成果,预示着未来可能的开源趋势。
原文链接
本文链接:https://kx.umi6.com/article/317.html
转载请注明文章出处
相关推荐
换一换
大模型降价,一场没有赢家的战争
2024-05-23 18:19:00
周志华:百万模型进入学件基座系统,很多没预期过的事也有可能实现
2024-12-30 10:12:09
又是疯狂的一周,全世界都「AI 麻了」!
2024-05-23 18:21:08
语境才是真正的护城河
2026-01-17 16:34:25
GPT-5,要来了?
2025-08-07 11:48:14
R2模型呼之欲出,「卷王」DeepSeek继续给巨头上压力
2025-02-28 17:17:31
争夺DeepSeek溢出流量!大厂应用端迅速接入 用户抱怨:搜的是抖音推的是视频号
2025-02-28 09:04:43
中国AI竞争加剧:苹果AI选合作,腾讯字节囤46万张GPU、模型能力排前列
2024-12-19 20:06:30
Meta 人工智能主管杨立昆:大语言模型不会达到人类智能水平
2024-05-23 18:23:54
滚烫Deepseek一夜刀掉英伟达4万亿,除夕开源多模态新模型
2025-01-28 11:43:35
那天,AI大模型想起了,被「失忆」所束缚的枷锁
2025-09-01 16:21:15
大模型进入「实用」时代!腾讯助力「销冠」量产,5 分钟创建智能助手
2024-05-23 19:05:58
DeepSeek R1来了,追平o1!
2025-01-21 17:39:43
807 文章
585896 浏览
24小时热文
更多
-
2026-04-04 11:48:55 -
2026-04-04 10:47:39 -
2026-04-04 08:44:28