综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年4月8日凌晨,DeepSeek悄然更新网页端,新增「快速模式」和「专家模式」,并开启「视觉模型」灰度测试。尽管官方未明确说明,但网友推测「专家模式」可能与传闻中的V4模型相关。实测显示,专家模式在复杂任务处理上表现更优,但与快速模式差距不大,或为V4 Lite版本。更有网友称,模型自曝版本为「V4」,但上下文长度限制(约133K token)与预期完整版V4不符,引发争议。此前,关于V4的传闻已持续多时,虽无官方实锤,但此次更新再次点燃期待。完整版V4是否即将发布,仍待官方揭晓。
原文链接
正文:2026年4月,北大张牧涵团队提出新稀疏注意力机制HISA(分层索引稀疏注意力),突破64K上下文索引瓶颈,在DeepSeek-V3.2和GLM-5模型上实现2-4倍提速且几乎不丢精度。HISA通过块级粗过滤与块内精挑字符两步操作,将复杂度从O(L²)降至O(L²/B + L×m×B),大幅降低计算成本,同时支持即插即用无需重新训练。实验显示,HISA在64K长度文本下最高提速3.75倍,精度与原方法DSA持平,尤其在长文本理解与关键信息检索任务中表现优异。团队未来计划改进块划分方式并探索联合训练优化筛选精度。
原文链接
31日,DeepSeek官方服务状态网站显示,其网页对话服务出现部分中断,网页/API性能异常。DeepSeek团队正在调查此问题,具体原因尚未公布。此次故障引发了用户关注,进一步进展仍有待官方更新。
原文链接
3月29日,DeepSeek网页版因升级引发宕机超11小时,冲上热搜。此前用户反馈其模型能力显著提升,如SVG绘图质量改进、代码生成效果增强等。宕机前,模型自称‘DeepSeek-V3’,知识截止日期推测为26年1月,较之前版本更精准。尽管服务已恢复,但深度思考模式仍存输出问题,部分功能回退至旧版。结合近期DeepSeek开放17个岗位招聘,疑似正酝酿重大布局。此次静默升级引发广泛关注与猜测。
原文链接
3月30日,社交平台用户反馈DeepSeek服务出现崩溃,持续约12小时。期间,网页端与App均出现问题,表现为“服务器繁忙”提示、新对话无法进行及部分用户对话内容丢失。截至发稿前,记者确认DeepSeek服务器已恢复正常,用户可重新正常使用。此次事件引发广泛关注。(中新经纬)
原文链接
3月30日,DeepSeek网页与APP服务遭遇重大中断,引发广泛关注并登上热搜。根据官方事件报告,昨日21:35首次发现服务异常,团队于23:23暂时解决问题。然而,今日00:20再次出现性能异常,尽管在01:24实施修复方案,但截至发稿问题仍未彻底解决。此次服务中断持续时间较长,对用户体验造成显著影响。
原文链接
正文:2026年3月,DeepSeek发布大规模招聘信息,开放17个岗位聚焦Agent方向研发。核心岗位涵盖算法研究、数据评测及基础设施建设,特别强调重度使用AI编程工具(如Claude Code、Copilot等)的候选人优先,并注重Vibe Coding实践经验。此次招聘标志着DeepSeek从基础模型研究转向Agent产品化布局,涉及强化学习、多模态设备控制、自动化工作流等前沿领域。同时,公司正搭建自主数据闭环流水线,追求复杂任务执行能力的Agent系统开发。此前传闻其高级Agent功能AI模型计划对标OpenAI,预计在2025年Q4发布。此次招聘或为该目标加速推进。
原文链接
2026年3月,DeepSeek核心工程师郭达雅被曝离职,引发广泛关注。郭达雅是V2、V3、R1等模型的核心作者,参与了DeepSeek多项关键技术研发,包括代码大模型DeepSeek-Coder和数学推理模型DeepSeek-Math。他于2023年博士毕业后加入DeepSeek,此前在中山大学和微软亚洲研究院期间已展现卓越科研能力,完成多项顶级会议论文,并在腾讯广告算法大赛等多项竞赛中夺冠。他还因参加程序员综艺《燃烧吧!天才程序员》被称为“SSS级巨佬”。导师寄语希望他成为“中山大学的雷军”。目前其去向未定,外界担忧可能影响DeepSeek-V4研发。
原文链接
3月15日,央视315晚会曝光GEO产业链,揭示通过向AI平台投喂假数据干预检索结果的隐秘生意。凤凰网科技曾在2025年8月首发报道DeepSeek被“投毒”现象,指出其成为重点目标。GEO(生成式搜索引擎优化)通过优化权威表达、关键词布局等提升品牌在AI回答中的曝光率,市场规模达420亿元,年复合增长率87%。Profound等公司获资本青睐,一年内融资三次,估值超1亿美元。国内以DeepSeek为代表的对话模型流量猛增,SearchAPI日均调用量达3000万次。业内人士指出,传统SEO手段逐渐失效,品牌需优化AI训练数据。然而,大模型反作弊策略或将限制“灰产”模式,未来高质量内容生成能力将成为核心竞争力。
原文链接
正文:2026年2月,DeepSeek联合北大、清华在ArXiv发布论文,推出全新智能体推理框架DualPath。该框架通过引入存储至解码引擎的第二条路径,利用闲置网卡带宽优化KV-Cache加载,缓解长文本推理中的I/O瓶颈。实测显示,DualPath将660B规模模型的离线推理吞吐量提升1.87倍,在线服务吞吐量平均提升1.96倍,同时显著降低首字延迟(TTFT)。研究由北大博士生吴永彤主导,其研究方向为大模型基础设施与推理系统优化。
原文链接
加载更多
暂无内容