综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年3月,智谱AI推出GLM-5.1模型,面向GLM Coding Plan所有用户开放(包括Lite/Pro/Max)。新模型编程能力较上一代GLM-5提升近10分,与全球顶尖模型Claude Opus 4.6仅差2.6分,引发网友热议和抢购热潮,Coding Plan订阅瞬间售罄。实测显示,GLM-5.1在代码生成、空间结构理解及动态补全能力上表现优异,可完成交互式游戏开发、室内设计平面图等复杂任务。模型支持OpenAI Compatible接口,兼容性强,配置简单,适合开发者快速接入工作流。此次更新距GLM-5发布仅一个多月,官方称其为强化版本,优化了稳定性与执行效率。
原文链接
3月27日,智谱发布改进版AI大模型GLM-5.1,距离GLM-5.0发布仅一个多月。新版本强化了AI代码能力,评测得分从GLM-5.0的35.4提升至45.3,增幅超30%。与全球最强编码大模型Opus 4.6相比,GLM-5.1仅落后不到3分,两者能力接近。此外,GLM-5.1价格远低于Opus 4.6,费用低数倍,更适合程序员使用。不过,其实际编程能力还需结合用户反馈评估,与Claude系列等国际领先模型相比,国产大模型在数据积累和算力规模上仍有提升空间。
原文链接
2026年2月11日,国产AI大模型GLM-5发布,其编程能力达全球领先水平。智谱推出的GLM-5参数量达7440亿,是上一代的两倍,在代理编程测试中以589分超越Claude Opus的585分,位列第一;非代理编程排名第三,仅次于Opus 4.6和Gemini 3 Pro,但优于Opus 4.5。海外AI博主@AICodeKing评价其兼容性强,适合构建复杂应用,且性价比极高,单次编程任务成本仅0.14美元,远低于Opus 4.6的6.39美元和Gemini 3 Pro的0.85美元。对国内开发者而言,GLM-5规避了国外工具的限制,更具吸引力。
原文链接
据The Information报道,DeepSeek计划于2月中旬春节前后发布V4模型,主打编码能力。内部测试显示,其性能已超越Anthropic的Claude和OpenAI的GPT系列。V4在超长代码提示词处理与解析上实现突破,且训练全程数据模式理解能力无衰减,较前代显著提升。新模型生成的答案逻辑更清晰、结构更规整,深度推理能力增强,复杂任务可靠性更高。此外,DeepSeek-V3.2论文提到使用大模型竞技场平台进行人类偏好评估,用户可能提前在该平台测试V4。
原文链接
11月24日,美国AI初创公司Anthropic发布最新模型Claude Opus 4.5,称其编程能力超越人类工程师。该模型在编码、智能代理及日常任务处理上表现卓越,并在测试中超越谷歌Gemini 3 Pro和OpenAI的GPT-5.1。Opus 4.5还通过了一项高难度软件工程测验,得分超过所有历史人类候选者。这是Anthropic两个月内发布的第三个重大版本,此前分别为9月的Sonnet 4.5和10月的Haiku 4.5。新模型将应用于专业开发者及知识型工作者,并成为Anthropic Pro、Max和Enterprise产品的默认模型。此外,公司推出多项更新,包括扩展工具Claude for Chrome、Claude for Excel以及桌面应用的新功能,进一步提升用户体验。
原文链接
9月16日,OpenAI发布全新GPT-5-Codex模型,现已在Codex编程助手中上线,并向ChatGPT Plus、Pro、Business等用户开放,未来计划通过API提供服务。该模型专为Agent编程优化,具备动态计算能力,可灵活分配任务“思考时间”,从数秒到七小时不等,显著提升复杂编程任务表现。相比以往依赖“路由”机制预判任务复杂度的方式,GPT-5-Codex可在任务中实时调整时间和算力,在SWE-bench Verified测试和大型代码库重构中优于标准GPT-5。此外,经过代码审查训练的GPT-5-Codex错误更少,能提供高质量评论,获得资深工程师认可。产品负责人称其动态思考能力在复杂问题上优势明显。
原文链接
2025年9月6日,阿里发布其迄今为止最大的万亿参数模型Qwen3-Max-Preview(Instruct),较前一代Qwen3(235B)参数量提升四倍。新模型在中英文理解、复杂指令遵循及工具调用等方面显著增强,并大幅减少知识幻觉,全面上线通义APP、Qwen Chat网页和阿里云API。实测显示,该模型在解答AIME数学竞赛题、编程生成互动动画、扫雷游戏及前端网页设计等任务中表现出色,所有尝试均一次成功,且生成速度达107+ token/秒。API采用阶梯计费,支持长上下文输入。阿里透露正式版即将推出,可能伴随推理版本,进一步扩展模型规模。
原文链接
2025年8月21日,DeepSeek官方发布V3.1版本,上下文长度扩展至128k,参数达685B,支持多种精度格式。新版本在编程能力上表现突出,Aider测试中得分71.6%,超越Claude 4 Opus,成本低至1美元。新增原生搜索和特殊Token功能,并优化推理速度和上下文支持。尽管未发布模型卡,V3.1已登上Hugging Face趋势榜第四。实测显示其性能显著提升,但在部分复杂任务上仍有改进空间。网友期待未来R2版本的发布。
原文链接
正文:2025年8月20日,DeepSeek低调上线并开源新模型DeepSeek-V3.1-Base,参数达6850亿,支持多种张量类型,上下文窗口拓展至128k。新模型在编程领域表现突出,Aider Polyglot测试得分71.6%,超越Claude 4 Opus,生成代码逻辑清晰且细节完整。但在写作和创意任务中仍有局限,叙事张力不足。此外,模型移除了深度思考模式的“R1”标识,并新增原生搜索功能优化。目前,该模型已在Hugging Face趋势榜跃居第二,引发广泛关注。
原文链接
2025年8月20日,DeepSeek V3.1发布,主要更新包括上下文长度拓展至128K和支持多种张量格式。实测显示,V3.1在编程能力、情境写作、数学理解、翻译水平等方面均有显著提升。例如,V3.1在处理GIF压缩任务时提供了更全面的代码说明和优化策略;情境写作中,风格从V3的理性转为更具文艺气息的表达;数学题解答逻辑清晰且正确;翻译表现对长难句的理解更强但偶有小失误。此外,V3.1在冷门知识问答中存在争议性回答。网友测试发现其在非推理模型基准上拿下SOTA成绩,性价比高,但部分线上API仍存在问题。目前,V3.1已可在网页端、APP及小程序使用,Base版本可从抱抱脸下载。
原文链接
加载更多
暂无内容