
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月11日,Hugging Face发布新一代最强30亿参数小模型SmolLM3,支持128k超长上下文、双推理模式(think/no_think)及多语言处理。该模型性能超越Llama3.2-3B和Qwen2.5-3B,逼近40亿参数模型,并完全开源训练、对齐、架构与数据。团队通过优化架构(如GQA机制、NoPE编码)及三阶段训练策略提升模型能力,尤其在数学、编程和长文本任务中表现优异。此外,SmolLM3引入双模式指令模型构建方案,平衡推理与非推理性能,支持工具调用与灵活场景适配。研究者可通过transformers库轻松部署,模型已在Hugging Face平台开放下载。
原文链接
Gemini 2.5 Pro模型在AI编程实践中,能够直接读取整个项目,带来全新的体验。长上下文能革新产品交互并开启全新应用场景。谷歌DeepMind的Nikolay Savinov指出,当前百万级token上下文质量尚未完美,盲目追求更大规模意义不大;随着成本下降,千万级token上下文将成为标准...
原文链接
MiniMax的好日子来了?
昨天凌晨,MiniMax正式开源了首个推理模型M1。尽管在基准测试中表现平平,但M1拥有业界最长的上下文能力:100万token输入与8万token输出。与此同时,MiniMax正在邀请用户测试其通用Agent。
错失先发优势后,这家曾被视为AI六小龙中最稳健的公司,正...
原文链接
OpenAI宣布GPT-4.1正式上线ChatGPT,Plus、Pro和Team用户现已可通过模型选择器访问。该模型具备强大的编码能力和指令遵循能力,知识截止日期更新至2024年6月。尽管表现优异,如高效完成复杂代码任务和准确推理问题,但许多用户对上下文窗口大小感到失望,ChatGPT中的GPT-4.1上下文长度仅为128k token,远低于API中的100万token。此外,部分用户反馈网页版运行特定提示词失败,而API Playground则成功执行。GPT-4.1在安全性评估中表现良好,但在越狱评估方面表现欠佳。有开发者认为其编码能力优于GPT-4.5,但仍期待GPT-5提供更多功能。时间:2025年5月16日。
原文链接
OpenAI推出GPT-4.1系列模型,主打性价比。该系列包括GPT-4.1、GPT-4.1 mini和GPT-4.1 nano三个版本,均支持百万token上下文窗口。相比GPT-4.5,GPT-4.1在编码、指令遵循及长上下文理解等方面表现更优。例如,在SWE-bench Verified测试中,GPT-4.1得分54.6%,提升显著;在MMLU基准测试中,GPT-4.1 mini以87.5%的成绩超越GPT-4o的85.7%,且成本更低。此外,GPT-4.1在长上下文检索与多跳推理测试中亦表现优异。OpenAI计划用GPT-4.1取代GPT-4.5,后者将于2025年7月14日下架。尽管性价比提高,GPT-4.1仍逊于DeepSeek R1。
原文链接
标题:AI说书媲美真人!豆包语音大模型升级长上下文理解
市面上许多语音模型虽已实现自然合成,但在音质、韵律及情感表达方面仍有待提升。尤其在小说演播中,需细腻区分旁白与角色、准确传达情感及不同角色间的差异。
传统方法需预先标记对话、情感和角色,而豆包语音模型可实现端到端合成,无需额外标签。为提升小说演...
原文链接
MiniMax于2025年初开源了最新的基础语言模型MiniMax-Text-01和视觉多模态模型MiniMax-VL-01,该模型拥有4560亿参数,支持400万token长上下文。MiniMax-Text-01通过新型线性注意力机制和混合专家架构,显著提高了长上下文处理能力。在基准测试中,MiniMax-Text-01表现出色,尤其是在长上下文理解和推理任务上。MiniMax-VL-01则结合了图像编码器,增强了多模态处理能力。这些模型有望推动AI Agent在2025年的广泛应用。
原文链接
标题:打脸!GPT-4o输出长度8k都勉强,陈丹琦团队新基准测试:所有模型输出都低于标称长度
奇月 发自 凹非寺量子位 | 公众号 QbitAI
很多大模型宣称能输出长达32K tokens,但实际如何?陈丹琦团队提出的新基准测试工具LONGPROC,检测长上下文模型处理复杂信息并生成回复的能力。实...
原文链接
MiniMax开源4M超长上下文新模型,性能媲美DeepSeek-v3、GPT-4o。
西风 发自 凹非寺
量子位 | 公众号 QbitAI
开源模型上下文窗口扩展至超长,达400万token!
MiniMax开源最新模型——MiniMax-01系列,包含MiniMax-Text-01(基础语言模型...
原文链接
标题:Qwen2.5更新百万超长上下文,推理速度4.3倍加速,网友:RAG要过时了
国产大模型Qwen2.5系列再升级,新增成员Qwen2.5-Turbo,支持超长上下文并提升推理速度。
Qwen2.5-Turbo可处理高达100万token的上下文,相当于10部长篇小说或30000行代码。它能在4...
原文链接
加载更多

暂无内容