综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年2月4日,OpenAI Developers宣布,GPT-5.2与GPT-5.2-Codex两款模型在不改变模型结构和参数权重的情况下,实现了约40%的整体速度提升。这一优化显著提高了模型运行效率,为用户带来更快的响应体验,进一步巩固了OpenAI在人工智能领域的技术领先地位。
原文链接
微软今日邀请Windows Insider项目的Canary和Dev频道成员测试Windows 11新版记事本应用(11.2410.15.0)。新版本的最大亮点是引入了AI重写内容功能,用户可右键点击文本选择重写选项或使用快捷键Ctrl + I,记事本将提供三种不同版本供选择,并支持调整内容长度和修改语气。此外,新版记事本的启动速度显著提升,大部分用户的启动时间提高超过35%,部分用户甚至达到55%以上。AI重写功能目前仅在美国、法国、英国、加拿大、意大利和德国开放,Microsoft 365个人和家庭版以及Copilot Pro的订阅者在澳大利亚、新西兰、马来西亚、新加坡、台湾和泰国也可体验此功能。此次更新提升了用户体验,使记事本更加智能化和高效。
(注:实际摘要控制在200字左右,根据要求进行了适当精简)
原文链接
Together AI团队成功地将Transformer和Mamba模型结合,推出了Llama 3+Mamba混合模型。通过蒸馏技术,将Transformer的参数集成到Mamba模型中,同时开发了推测解码算法加速推理过程,实现了推理速度最高提升1.6倍的显著效果。这一创新不仅保持了原有模型的高性能,甚至在某些任务上的表现超越了原始模型,尤其是在零样本和少样本的通用自然语言处理任务中。实验结果显示,在多轮聊天对话任务中,混合模型与Llama-3相当或更优,且在零样本任务评测中,混合模型的平均成绩优于同等规模的RNN模型。此外,推测解码算法的应用使得混合模型在单论和多轮任务上的性能得到了显著提升,尤其是在Zephyr和Llama混合模型上,推理速度分别提升了1.8倍和1.6倍以上。这一成果标志着大模型发展方向的一个重要里程碑,展示了混合模型在加速推理过程和提升性能方面的巨大潜力。
原文链接
韩国科研团队与科技研究院、LG和DeepMind合作研发了一种新型Transformer架构,称为Block Transformer。这种架构通过分割注意力机制,显著提高了大模型的解码速度,提升了20倍,同时降低了内存需求。研究指出,原始Transformer的全局KV缓存由于频繁访问导致计算效率低下,GPU利用率仅有1%。Block Transformer通过块级和块内注意力机制有效解决了这个问题,提升了推理吞吐量,保持或提高了模型性能。实验显示,Block Transformer在HellaSwag等任务上的准确性与原模型相当,而且在训练效率和内存使用方面表现出色。这项创新技术有潜力加速大模型的实际应用。
原文链接
加载更多
暂无内容