3月26日,科技媒体NeoWin报道,数据智能公司Databricks推出大语言模型微调新方法TAO(Test-time Adaptive Optimization)。该方法通过无标注数据和强化学习技术,在降低成本的同时提升模型性能。测试表明,经TAO微调后的Llama 3.3 70B模型,在金融文档问答和SQL生成任务中的表现甚至超越传统标注微调方式,并接近OpenAI顶级闭源模型。在三大企业基准测试中,TAO微调的Llama模型表现优异:FinanceBench(7200道SEC文档问答)得分85.1,优于标注微调(81.1)和GPT-4o(82.2);BIRD-SQL测试中得分56.1,接近GPT-4o(58.1);DB Enterprise Arena测试中得47.2分,GPT-4o得53.8分。TAO技术利用测试时计算自动优化模型,无需人工标注,且随着使用量增加,模型可进一步自我优化。目前,该技术已在Llama模型上开启私测,企业可申请参与。
原文链接
本文链接:https://kx.umi6.com/article/16224.html
转载请注明文章出处
相关推荐
.png)
换一换
扎克伯格:Meta 的 Llama 模型下载量已达 10 亿次
2025-03-19 17:42:07
扎克伯格押注 AI:Meta 正推动美国政府使用其 Llama 模型
2024-10-31 08:40:36
Llama核心团队“大面积跑路”,14人中11人出走
2025-05-27 16:23:08
421 文章
64867 浏览
24小时热文
更多

-
2025-07-21 18:22:40
-
2025-07-21 18:21:33
-
2025-07-21 18:20:19