
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月14日,苹果公司联合俄亥俄州立大学发布新型语言模型FS-DFM(Few-Step Discrete Flow-Matching),专攻长文本生成效率瓶颈。该模型仅需8轮迭代即可媲美传统扩散模型上千轮的生成质量,速度提升最高达128倍。作为扩散模型变体,FS-DFM通过三步法优化:灵活适应迭代次数、引入“教师”模型引导更新、改进迭代机制以减少步骤。测试显示,其参数量为1.7亿至17亿的变体在困惑度和熵指标上优于参数量更大的Dream和LLaDA模型,生成文本更流畅且稳定。这一突破将显著提升AI长文写作效率。
原文链接
标题:90分钟生成10万Token,新框架实现3倍无损加速超长文本生成,支持DeepSeek-R1和QwQ!
生成10万Token的文本,传统自回归模型需近5小时,现仅需90分钟。最新研究提出名为TOKENSWIFT的框架,优化模型加载、KV缓存管理和Token生成策略,实现在保证生成质量和多样性前...
原文链接
加载更多

暂无内容