1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:一句话生成LoRA!Transformer作者创业公司革新LLM微调

正文:

由Transformer作者之一Llion Jones联合创立的SakanaAI公司,近期推出Text-to-LoRA(T2L),大幅简化模型适配流程。以往微调大模型需数周时间准备数据和调整超参数,如今只需一句话即可生成LoRA。

T2L生成的LoRA参数压缩率达80%,仅降1.2%准确率,零样本场景下平均准确率达78.3%,超越现有SOTA方法。这标志着“一句话定制模型”的时代到来,非技术用户也能轻松完成相关工作。

T2L包含三种架构变体:T2L-L、T2L-M和T2L-S。T2L-L为各层生成完整LoRA权重矩阵;T2L-M按模块类型共享输出空间;T2L-S为全模型生成统一适配器。团队还提出基于LoRA重建和监督微调两种训练模式。

实验显示,T2L-L在压缩后性能最优,而T2L-S压缩率最高。T2L能在资源受限环境中高效部署,零样本场景下平均准确率达78.3%,优于多任务LoRA和Arrow Routing。

SakanaAI由Llion Jones于2023年创立,他曾是Transformer架构的主要作者之一。公司专注于自然启发方法开发基础模型,包括达尔文哥德尔机和新型神经记忆系统NAMM。本论文由多位资深学者共同完成,已在ICML2025收录。

原文链接
本文链接:https://kx.umi6.com/article/20207.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
大模型玩不好数独?!Transformer作者初创公司公布排行榜:o3 Mini High“变异数独”正确率仅2.9%
2025-05-28 16:36:56
全球首款Transformer专用AI芯片Sohu发布:比英伟达H100快20倍
2024-06-26 16:11:57
速度秒杀GPT们10倍,国外的DeepSeek时刻来了?
2025-03-14 08:00:03
多亏Transformer,Mamba更强了!仅用1%计算量达新SOTA
2024-08-22 17:19:58
两位00后,融资8个亿
2024-06-29 16:53:08
最火AI角色扮演流量已达谷歌搜索20%!每秒处理2万推理请求,Transformer作者公开优化秘诀
2024-06-21 15:42:20
谷歌 AI 掌门人 Jeff Dean 对话 Transformer 作者:AI 提速 300%,1000 万倍工程师要来了
2025-02-22 18:43:08
Falcon Mamba 7B 开源模型登顶:换掉 Transformer,任意长序列都能处理
2024-08-14 10:29:52
张亚勤:Transformer五年内会被逐步重构,15-20年内实现AGI | 清华AIR无锡创新中心成立
2024-06-08 15:19:23
全球首款 Transformer 专用 AI 芯片 Sohu 登场:每秒可处理 50 万个 tokens,英伟达 H100 的 20 倍
2024-06-26 12:30:19
微软清华改进Transformer:用降噪耳机原理升级注意力,一作在线答疑
2024-11-05 14:35:47
5090跑《黑神话》飙到200+帧,英伟达DLSS也用上Transformer了
2025-01-17 17:20:30
左手Transformer,右手世界模型,我们距离AGI还有多远?
2024-11-21 18:39:56
24小时热文
更多
扫一扫体验小程序