综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年1月27日,Personal Intelligence公司Mindverse宣布完成超2000万美元Pre-A轮融资,由蚂蚁集团领投、红杉中国等联合投资。Mindverse成立于2023年10月,专注于个人专属模型(Personal Intelligence)研发,其试验性产品Macaron AI于2025年8月发布,面向个人生活场景。团队在LoRA强化学习领域取得突破,已实现万亿参数级训练能力,并搭建平台Mind Lab Toolkit供外部测试。目前,Macaron AI用户创建应用超30万个,运行28个LoRA模型,目标在2026年Q2为数十万用户提供定制化模型。创始人陈锴杰表示,个性化AI体验是未来方向。投资人认为,记忆与交互的结合将是AI入口竞争核心,期待Mindverse推动个性化规模化落地。
原文链接
2025年10月11日,Thinking Machines发布论文《LoRA Without Regret》,探讨低秩适配(LoRA)在特定条件下媲美全参数微调(FullFT)的性能。研究表明,当LoRA应用于网络所有层(尤其是MLP/MoE层)且训练参数量充足时,其表现与FullFT相当。实验发现,LoRA的学习率通常是FullFT的10倍,大批量训练下容忍度较低。此外,在强化学习场景中,即使低秩LoRA也能达到FullFT的效果。研究基于Tulu3、OpenThoughts3及MATH等数据集,覆盖监督学习和策略梯度算法。此成果推动LoRA在定制化场景中的应用,同时为机器学习优化提供新视角。
原文链接
2025年10月4日,Thinking Machines发布论文《LoRA Without Regret》,探讨低秩适配(LoRA)在特定条件下媲美全参数微调(FullFT)的性能。研究表明,LoRA在小到中等规模数据集上表现与FullFT相当,但对大批量训练容忍度较低。关键发现包括:LoRA需应用于所有层(尤其是MLP/MoE层),且其学习率通常为FullFT的10倍。此外,在强化学习场景中,即使低秩LoRA也能达到FullFT的效果。研究旨在推动LoRA在定制化场景中的广泛应用,同时深化对机器学习基础问题的理解。更多详情见博客与论文链接。
原文链接
标题:一句话生成LoRA!Transformer作者创业公司革新LLM微调
正文:
由Transformer作者之一Llion Jones联合创立的SakanaAI公司,近期推出Text-to-LoRA(T2L),大幅简化模型适配流程。以往微调大模型需数周时间准备数据和调整超参数,如今只需一句话即可...
原文链接
加载更多
暂无内容