1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

Hugging Face 发布报告,提出“扩展测试时计算”方法,通过增加运算时间使低成本小模型能产生与大模型相媲美的结果。该方法利用10亿参数的Llama模型进行数学测试,在某些情况下超越了70亿参数的大模型。此举为小型企业和个人开发者提供了降低AI成本的新途径。谷歌DeepMind亦有类似研究,认为可动态分配资源并设置验证器提高模型准确性。此技术有望帮助企业以较少资源部署精准语言模型。

原文链接
本文链接:https://kx.umi6.com/article/10924.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
Hugging Face开源小参数模型SmolLM3
2025-07-09 07:58:36
ModernBERT 模型公布,接任“Hugging Face 下载榜第二”2018 年经典原版
2024-12-29 15:54:12
人工智能开发平台 Hugging Face 收购 Pollen Robotics,进军人形机器人市场
2025-04-15 09:22:23
24小时热文
更多
扫一扫体验小程序