1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

【新闻摘要】近期,名为xLAM-1B的小型语言模型在特定任务中以10亿参数超越了OpenAI的GPT-3.5 Turbo和Anthropic的Claude-3 Haiku,挑战了大模型主导的局面。这打破了传统的大语言模型(LLM) Scaling Law,展示了"少即是多"的理念。xLAM-1B仅凭创新的数据处理方法和APIGen生成的高质量数据,实现了在设备端高效运行的可能,预示着人工智能领域从云端向设备侧发展的趋势转变。小语言模型(SLM)的崛起,如苹果和微软推出的低参数模型,正推动AI技术民主化和资源效率提升,同时减少碳排放。这场"大卫与歌利亚"式的对决,暗示了未来AI生态可能由分布式、定制化和环保的模型主导。

原文链接
本文链接:https://kx.umi6.com/article/2665.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
少即是多:10亿参数「小巨人」击败ChatGPT
2024-07-04 17:31:44
我国专精特新“小巨人”企业数量达1.46万家
2024-12-01 17:36:13
工信部:已累计培育400余家人工智能领域国家级专精特新“小巨人”企业
2025-04-18 11:12:02
24小时热文
更多
扫一扫体验小程序