1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

生成式AI领域,每隔一段时间都会出现一场令人瞩目的大型“碰撞”事件。今年,这一现象尤为显著,谷歌Gemini 1.5 Pro模型发布与OpenAI的视频生成模型Sora推出几乎同期,紧接着是OpenAI的GPT-4发布与谷歌I/O开发者大会的碰撞,使得AI大模型争霸的紧张氛围弥漫。

过去,外界对OpenAI与谷歌之间的关系存在猜测,认为OpenAI有刻意截胡谷歌的嫌疑。然而,上周连续四天内,Hugging Face、OpenAI、Mistral、苹果相继发布自家最强轻量级模型,这一系列事件凸显了AI产业的最新趋势。现在,大模型的竞争焦点已从单纯的“做大做强”转向“做小做精”。

超越GPT-4已不再是唯一的关键指标,大模型进入了关键的市场竞争阶段,不仅要展示技术实力,更要证明模型的性价比——在同等性能下,模型体积更小;在同等参数下,性能更高且更经济。

实际数据显示,自去年下半年开始,AI大模型反卷小型化的技术风向已逐渐形成。Mistral AI和面壁智能这两家公司在开发者社区有着极佳口碑,它们分别推出了性能超越Llama 2的70亿参数大模型和仅24亿参数即可实现超过Llama 2 13B性能的端侧模型MiniCPM。面壁智能的原创性工作在国内外学术界均受到认可,国产开源AI模型因此得以扬眉吐气。

苹果也开始研究更适合手机的端侧模型,而OpenAI作为长期追求规模扩张的公司,此次推出轻量级模型GPT-4o mini,表明了大模型领导者开始顺应行业趋势,尝试用更经济实惠的模型撬动更广泛的市场。

2024年,预计将见证大模型小型化的关键转折点。新的轻量级通用语言模型不断涌现,这些模型在端侧部署时参数量不超过8B,且性能表现出色。

AI时代也有自己的“摩尔定律”,即随着数据、算力和算法的协同发展,大模型的知识密度持续增强,每8个月翻一番。这一趋势下,训练一个千亿参数模型的能力,8个月后可以通过500亿参数的模型实现,再过8个月只需250亿参数就能达到同样的效果。

大模型竞赛已从单纯追求性能转向关注现实应用需求,小型化成为主流趋势。闭源和开源阵营各自展开激烈的竞争,中美欧各有代表性玩家。OpenAI、谷歌、Anthropic等大厂采取闭源策略,掌控最强性能档的大模型,而面壁智能等中国初创企业则通过开源轻量级模型在市场中崭露头角。

模型小型化不仅降低了成本,还提高了模型的效率和可访问性,使得更多设备能够本地运行模型,如智能手机和平板电脑。这标志着AI普惠时代的到来,更小、更便宜、更快、更个性化的模型将满足99%的应用需求。

大模型小型化的背后,是技术的不断突破和优化,包括训练数据集的改进、架构创新以及高效的模型生产线建设。通过构建全流程工具套件平台和高效可扩展的模型训练策略,模型训练速度和质量得到了显著提升。

面对端侧AI的爆发,面壁智能等公司推出了端侧大模型工具集“MobileCPM”,并提供了详细的教程,简化了开发者集成大模型到应用的过程。随着端侧芯片性能的提升和模型知识密度的增加,未来一年内有望将GPT-3.5水平的模型放入端侧设备运行,两年内则可实现GPT-4o水平模型的端侧运行。

这场AI竞赛不再局限于疯狂的算力投资,而是转向了更经济、更实用的方向,推动AI技术在企业及消费环境中得到更广泛的应用。中国开源力量在这一进程中展现出活力,通过技术创新验证大模型知识密度定律,加速大模型的实际应用落地。

原文链接
本文链接:https://kx.umi6.com/article/3790.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
论文:美国 30% 代码已由 AI 包办,年创百亿美元价值
2025-06-22 16:16:54
大模型风向变了,OpenAI苹果掉头布阵
2024-07-23 09:25:40
超级智能体加速AI普惠,杨元庆称不必担忧AI取代人类
2025-05-08 12:32:05
24小时热文
更多
扫一扫体验小程序