1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
最强3B「小钢炮」,代码数据全公开!推理随意开关,128k超长上下文
2025年7月11日,Hugging Face发布新一代最强30亿参数小模型SmolLM3,支持128k超长上下文、双推理模式(think/no_think)及多语言处理。该模型性能超越Llama3.2-3B和Qwen2.5-3B,逼近40亿参数模型,并完全开源训练、对齐、架构与数据。团队通过优化架构(如GQA机制、NoPE编码)及三阶段训练策略提升模型能力,尤其在数学、编程和长文本任务中表现优异。此外,SmolLM3引入双模式指令模型构建方案,平衡推理与非推理性能,支持工具调用与灵活场景适配。研究者可通过transformers库轻松部署,模型已在Hugging Face平台开放下载。
超频思维站
07-11 11:34:58
SmolLM3
开源模型
长上下文
分享至
打开微信扫一扫
内容投诉
生成图片
Gemini 2.5 Pro负责人:最强百万上下文,做好了能解锁很多应用场景
Gemini 2.5 Pro模型在AI编程实践中,能够直接读取整个项目,带来全新的体验。长上下文能革新产品交互并开启全新应用场景。谷歌DeepMind的Nikolay Savinov指出,当前百万级token上下文质量尚未完美,盲目追求更大规模意义不大;随着成本下降,千万级token上下文将成为标准...
AGI探路者
07-01 08:52:17
Gemini 2.5 Pro
RAG
长上下文
分享至
打开微信扫一扫
内容投诉
生成图片
MiniMax的好日子来了?
MiniMax的好日子来了? 昨天凌晨,MiniMax正式开源了首个推理模型M1。尽管在基准测试中表现平平,但M1拥有业界最长的上下文能力:100万token输入与8万token输出。与此同时,MiniMax正在邀请用户测试其通用Agent。 错失先发优势后,这家曾被视为AI六小龙中最稳健的公司,正...
心智奇点
06-18 21:51:36
Agent
MiniMax
长上下文
分享至
打开微信扫一扫
内容投诉
生成图片
OpenAI诈骗?GPT-4.1正式上线ChatGPT,网友实测却大呼失望
OpenAI宣布GPT-4.1正式上线ChatGPT,Plus、Pro和Team用户现已可通过模型选择器访问。该模型具备强大的编码能力和指令遵循能力,知识截止日期更新至2024年6月。尽管表现优异,如高效完成复杂代码任务和准确推理问题,但许多用户对上下文窗口大小感到失望,ChatGPT中的GPT-4.1上下文长度仅为128k token,远低于API中的100万token。此外,部分用户反馈网页版运行特定提示词失败,而API Playground则成功执行。GPT-4.1在安全性评估中表现良好,但在越狱评估方面表现欠佳。有开发者认为其编码能力优于GPT-4.5,但仍期待GPT-5提供更多功能。时间:2025年5月16日。
未来笔触
05-16 13:50:56
GPT-4.1
OpenAI
超长上下文
分享至
打开微信扫一扫
内容投诉
生成图片
GPT-4.1淘汰了4.5!全系列百万上下文,主打一个性价比
OpenAI推出GPT-4.1系列模型,主打性价比。该系列包括GPT-4.1、GPT-4.1 mini和GPT-4.1 nano三个版本,均支持百万token上下文窗口。相比GPT-4.5,GPT-4.1在编码、指令遵循及长上下文理解等方面表现更优。例如,在SWE-bench Verified测试中,GPT-4.1得分54.6%,提升显著;在MMLU基准测试中,GPT-4.1 mini以87.5%的成绩超越GPT-4o的85.7%,且成本更低。此外,GPT-4.1在长上下文检索与多跳推理测试中亦表现优异。OpenAI计划用GPT-4.1取代GPT-4.5,后者将于2025年7月14日下架。尽管性价比提高,GPT-4.1仍逊于DeepSeek R1。
WisdomTrail
04-15 10:24:50
GPT-4.1
性价比
长上下文
分享至
打开微信扫一扫
内容投诉
生成图片
AI说书媲美真人!豆包语音大模型升级长上下文理解
标题:AI说书媲美真人!豆包语音大模型升级长上下文理解 市面上许多语音模型虽已实现自然合成,但在音质、韵律及情感表达方面仍有待提升。尤其在小说演播中,需细腻区分旁白与角色、准确传达情感及不同角色间的差异。 传统方法需预先标记对话、情感和角色,而豆包语音模型可实现端到端合成,无需额外标签。为提升小说演...
代码编织者
02-26 15:35:34
AI语音合成
豆包语音模型
长上下文理解
分享至
打开微信扫一扫
内容投诉
生成图片
MiniMax震撼开源,突破传统Transformer架构,4560亿参数,支持400万长上下文
MiniMax于2025年初开源了最新的基础语言模型MiniMax-Text-01和视觉多模态模型MiniMax-VL-01,该模型拥有4560亿参数,支持400万token长上下文。MiniMax-Text-01通过新型线性注意力机制和混合专家架构,显著提高了长上下文处理能力。在基准测试中,MiniMax-Text-01表现出色,尤其是在长上下文理解和推理任务上。MiniMax-VL-01则结合了图像编码器,增强了多模态处理能力。这些模型有望推动AI Agent在2025年的广泛应用。
智能维度跳跃
01-16 10:52:27
MiniMax
Transformer架构
长上下文
分享至
打开微信扫一扫
内容投诉
生成图片
打脸!GPT-4o输出长度8k都勉强,陈丹琦团队新基准测试:所有模型输出都低于标称长度
标题:打脸!GPT-4o输出长度8k都勉强,陈丹琦团队新基准测试:所有模型输出都低于标称长度 奇月 发自 凹非寺量子位 | 公众号 QbitAI 很多大模型宣称能输出长达32K tokens,但实际如何?陈丹琦团队提出的新基准测试工具LONGPROC,检测长上下文模型处理复杂信息并生成回复的能力。实...
智能涌动
01-15 21:38:45
LONGPROC基准
模型性能
长上下文模型
分享至
打开微信扫一扫
内容投诉
生成图片
MiniMax开源4M超长上下文新模型!性能比肩DeepSeek-v3、GPT-4o
MiniMax开源4M超长上下文新模型,性能媲美DeepSeek-v3、GPT-4o。 西风 发自 凹非寺 量子位 | 公众号 QbitAI 开源模型上下文窗口扩展至超长,达400万token! MiniMax开源最新模型——MiniMax-01系列,包含MiniMax-Text-01(基础语言模型...
智能涌动
01-15 13:29:41
Lightning Attention
MiniMax-01
超长上下文
分享至
打开微信扫一扫
内容投诉
生成图片
Qwen2.5更新百万超长上下文,推理速度4.3倍加速,网友:RAG要过时了
标题:Qwen2.5更新百万超长上下文,推理速度4.3倍加速,网友:RAG要过时了 国产大模型Qwen2.5系列再升级,新增成员Qwen2.5-Turbo,支持超长上下文并提升推理速度。 Qwen2.5-Turbo可处理高达100万token的上下文,相当于10部长篇小说或30000行代码。它能在4...
智慧轨迹
11-19 13:44:15
Qwen2.5-Turbo
推理速度
超长上下文
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序