综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2月27日,DeepSeek团队联合北大、清华发布新论文,聚焦大模型推理速度优化。论文提出名为DualPath的创新推理系统,通过“双路径读取KV-Cache”机制重新分配存储网络负载,显著提升性能:离线推理吞吐量最高提升1.87倍,在线服务每秒智能体运行数平均提升1.96倍。研究背景指出,大模型正从单轮对话向智能体系统演进,能够自主规划、调用工具并完成多轮交互任务。这一应用范式转变使推理工作负载从人类-大模型交互转向人类-大模型-环境交互,交互轮次可达数十至数百轮,对底层系统效率提出更高要求。该成果为复杂AI智能体的实际落地提供了重要技术支持。(第一财经)
原文链接
2月12日,字节跳动的视频模型Seedance 2.0在海外引发关注。特斯拉CEO马斯克在其社交平台X上转发并评论了相关推文,称该模型发展速度‘太快’(It's happening fast)。这一动态凸显了Seedance 2.0在全球科技领域的热度及影响力,同时也反映了人工智能技术快速迭代的趋势。
原文链接
2026年2月4日,OpenAI Developers宣布,GPT-5.2与GPT-5.2-Codex两款模型在不改变模型结构和参数权重的情况下,实现了约40%的整体速度提升。这一优化显著提高了模型运行效率,为用户带来更快的响应体验,进一步巩固了OpenAI在人工智能领域的技术领先地位。
原文链接
2025年12月26日,智元机器人宣布旗下远征A2旗舰版人形机器人完成V1.3版本更新。此次升级显著提升性能,行走速度从0.8m/s提高至1.2m/s,自主导航速度增至0.8m/s。新增功能包括‘灵动待机’、自定义问候语、语音操控全流程、边走边做动作、智能避障等。此外,新增全身舞蹈《加速时刻》《觉醒时分》,并支持蓝牙音响和硅基送功能。客户端同步升级,优化单人运输体验。远征A2于去年8月发布,采用拟人构型设计,支持多模交互与智能体验,具备可靠移动性和便捷维护特性,提供电池快换及充电两种补能方式。
原文链接
12月17日,2025小米人车家全生态合作伙伴大会举行,Xiaomi MiMo大模型负责人罗福莉完成入职后首秀。她介绍了新发布的开源MoE模型MiMo-V2-Flash,该模型以极致推理效率为核心设计,通过3层MTP推理加速并行Token验证,实现2.0~2.6倍推理速度提升。总参数达309B(激活15B)的MiMo-V2-Flash在代码和Agent评测基准中位列全球开源模型Top2,并具备模拟世界能力,如用HTML写操作系统、模拟太阳系等。罗福莉还展望下一代智能体系统,认为其应为真正理解世界并与之共存的“智能体”,而非简单的语言模拟器。
原文链接
12月15日,OpenAI Codex产品负责人Alexander Embiricos在播客《Lenny's Podcast》中表示,人类打字速度可能成为通用人工智能(AGI)发展的瓶颈。他指出,目前人们仍需通过编写提示词引导AI,并手动验证其输出结果,这限制了效率。他认为,只有将人类从这些任务中解放出来,重构系统让智能体自主发挥作用,才能实现‘曲棍球杆式增长’。尽管全自动化流程面临挑战,但Alexander预计很快会看到显著进展。他还提到,AGI将在‘中间层’出现,早期使用者可借此大幅提升生产力,而全面自动化仍需时间发展。
原文链接
在2025年人工智能计算大会上,浪潮信息发布元脑HC1000和元脑SD200两大AI服务器产品,显著优化智能体产业化中的速度与成本问题。元脑SD200将DeepSeek-R1模型推理延迟降至8.9ms,创造端到端推理新纪录,并实现超线性扩展率。元脑HC1000则将百万Token推理成本降至1元,单卡及系统成本分别降低60%和50%。两者通过创新架构设计,解决了通信延迟、资源利用率低等问题,为多智能体协同和复杂任务推理提供高效算力支持。浪潮信息首席AI战略官刘军指出,未来AI计算需从通用转向专用架构,以应对系统规模、电力压力和算效不平衡等挑战。
原文链接
2025年9月26日,AI行业的高投入与快速硬件迭代成为焦点。微软、Meta、谷歌等科技巨头投资规模达数千亿美元,阿里巴巴计划投入3800亿元。AI显卡因算力需求高,通常3至5年便被淘汰,NVIDIA H200显卡售价高达4万美元,国内市场价格在20万至80万元不等。更高端型号成本更高,1GW数据中心投资需400-500亿美元,其中2/3用于硬件。贝恩资本预测,到2030年,科技公司需部署5000亿美元资本开支并实现2万亿美元营收才能盈利。NVIDIA CEO黄仁勋称,AI未来将占全球2/3 GDP,市场规模超50万亿美元,卖硬件的NVIDIA或成最大赢家。
原文链接
2025年9月,马斯克旗下xAI团队发布全新AI模型Grok 4 Fast,生成速度高达每秒75个token,比标准版快10倍。实测显示,该模型在编程、数学题解答及问答任务中表现出色,例如2秒内解决LeetCode经典问题,正确回答初中数学题。尽管速度惊人,但部分复杂任务如生成SVG代码时表现欠佳。与专家模式相比,Grok 4 Fast为追求即时性牺牲了一定的准确性。此前,xAI还发布了擅长编码的Grok Code Fast 1和图像生成快速工具Grok 4 Imagine。网友评价其为迄今最快、最强思考模型之一,但也有观点认为其影响力尚未完全释放。
原文链接
2025年9月15日,埃隆·马斯克旗下xAI公司推出Grok 4 Fast模型,主打高速响应,速度可达标准版Grok 4的10倍。用户可通过Grok网页端启用“早期访问测试版”功能体验该模型。Grok 4 Fast通过简化复杂任务优化响应时间,适合追求即时结果的场景,但在创意和精细任务上表现有所妥协。此前,该模型以“Sonoma”为名在Arena平台内测并完成优化。目前处于早期访问阶段,未来可能向免费用户开放甚至取代Grok 3。此外,xAI新增“更新日志”板块,并计划将Grok 4 Fast适配移动端应用。
原文链接
加载更多
暂无内容