近日,由新加坡国立大学、得克萨斯大学奥斯汀分校等机构的研究人员联合开发的「拖拽式大语言模型」(DnD)引发关注。该模型基于提示词快速生成任务专属参数,无需微调即可适应不同场景,效率比传统方法提升12000倍。DnD通过轻量级文本编码器与级联超卷积解码器,在数秒内生成LoRA权重矩阵,展现出卓越的零样本泛化能力。实验表明,其在数学、代码及多模态任务中性能优于现有方法,且仅需无标签提示词即可完成适配。这项技术为大模型快速专业化提供了高效解决方案,有望推动AI应用落地。
原文链接
本文链接:https://kx.umi6.com/article/20695.html
转载请注明文章出处
相关推荐
换一换
AI圈纷纷传阅,Andrej Karpathy 的最新演讲全文来了
2025-06-23 17:26:53
LLM 带来了「编程末日」?哥本哈根大学计算机教授称“永远不会”
2025-01-11 15:37:55
强化学习之父:LLM主导只是暂时,扩展计算才是正解
2025-06-10 18:52:34
15亿流量,为何没带来AI游戏的『王者荣耀 』
2024-10-30 14:08:48
Claude新指南,教你构建属于自己的智能体
2024-12-24 10:31:53
ChatGPT 真能记住你的话吗?DeepMind 与开源大佬揭示 LLM 记忆之谜
2024-06-01 15:32:44
LeCun被痛批:烧掉千亿算力,把Meta搞砸了
2025-04-20 09:06:21
为啥“3个agent”没水吃?科学家发现了14个失败原因
2025-03-27 19:02:22
LLM 的“母语”是什么?
2024-06-03 07:50:10
LLM时代,FPGA跑AI会比GPU更强吗?
2024-06-12 08:46:33
Claude 4登陆Amazon Bedrock
2025-05-27 18:22:21
Andrej Karpathy 盛赞!斯坦福团队新作,让Llama-1B 实现毫秒级推理
2025-06-03 12:57:05
Agent是“新瓶装旧酒”,氛围编码不值得尝试?
2025-05-08 14:32:22
516 文章
229890 浏览
24小时热文
更多
-
2025-10-25 10:17:38 -
2025-10-25 08:14:19 -
2025-10-24 22:57:14