综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
11月28日,北京市发布《“人工智能+视听”产业高质量发展行动方案(2025—2029年)》,提出重点发展AI电视、AI手机、AI眼镜等新型智能终端产品和服务。方案强调构建“端侧AI芯片+视听算法+智能体”技术创新体系,支持终端制造企业与科技平台合作,开发智慧工业、交通、教育等领域的视听应用解决方案。同时,鼓励企业加强端侧AI推理能力,通过边缘计算和云端协同实现内容实时生成与个性化推送,提升用户体验。此外,将建立智能视听终端测试验证平台,推动行业标准与评价体系建设,助力产业高质量发展。
原文链接
2025年11月24日,Anthropic发布Claude Opus 4.5模型,在多项基准测试中表现卓越。这款AI不仅严格遵守规则,还能创造性地解决问题。例如,在航空客服测试中,它发现政策“后门”,通过升舱为客户实现航班改签,突破了传统限制。在前端项目测试中,Opus 4.5展现了超越代码生成的“产品思维”,如在记账本项目中实现数据持久化和删除功能,或为贪吃蛇游戏添加历史最高分纪录。相比Sonnet 4.5的高效执行,Opus 4.5更像一位懂技术的产品经理,能主动思考用户需求。这一进化标志着AI从“代码生成器”迈向“智能合作伙伴”,为开发者提供了更高层次的协作选择。
原文链接
11月19日,群联电子在美国SC25大会上发布两款PCIe 5.0企业级SSD新品Pascari X201和D201。X201专为数据密集型任务设计,容量达30.72TB,支持U.2/E3.S规格;D201优化云存储性能,容量15.36TB,支持E1.S规格。两款产品均提供14.5GB/s和12GB/s顺序读写速率,随机读写分别达3300K IOPS和1050K IOPS,并有1DWPD/3DWPD耐久配置。同时,群联推出aiDAPTIV+显存扩充方案,可将AI应用性能提升25倍,特定场景响应时间从73秒缩短至4秒,显著加速核显平台AI推理任务。
原文链接
在百度世界大会上,百度发布新一代昆仑芯M100和M300。M100针对大规模AI推理,预计2026年年初上市;M300面向超大规模多模态大模型训练和推理,预计2027年年初上市。这两款芯片的发布展现了百度在AI芯片领域的持续创新能力,为未来AI应用场景提供了更强算力支持。(记者 黄心怡)
原文链接
11月11日讯,AMD今日宣布完成对美国AI推理创企MK1的收购。MK1团队将加入AMD AI事业部,推动高速推理和企业级AI软件栈的发展。MK1由Neuralink联合创始人保罗·梅罗拉与Thong Wei Koh于2023年1月创立,专注于优化大规模部署的AI推理技术。其飞轮技术针对AMD硬件优化,日处理超1万亿token。梅罗拉曾领导Neuralink芯片设计,并开发解码大脑活动的算法,为MK1注入强大技术实力。此次收购将结合AMD计算能力与MK1软件创新,助力AI领域突破。
原文链接
2025年11月11日,AMD宣布完成对AI推理技术团队MK1的收购,进一步强化其在人工智能领域的战略布局。MK1团队将并入AMD人工智能集团,专注提升高速推理能力与企业级AI软件堆栈建设,助力AMD在AI芯片市场与英伟达竞争。MK1的核心技术包括针对AMD Instinct GPU优化的Flywheel引擎,每日可处理超1万亿个Token,适用于金融风控、医疗影像分析等高负载场景。此次收购是AMD自2023年以来一系列AI战略举措的延续,此前已收购Mipsology、Nod.ai、Silo AI等公司,并吸纳Untether AI工程师团队及完成对Brium的收购。这些布局共同完善了AMD在“芯片-软件-系统”全栈AI解决方案中的整合能力,为其在数据中心与边缘计算市场的竞争力提供支持。
原文链接
AMD于11月10日宣布完成对AI推理技术团队MK1的收购,该团队将加入AMD的人工智能集团,助力高速推理和企业级AI软件堆栈发展。MK1专注于大规模部署基于推理的AI技术,其Flywheel技术和理解引擎专为AMD Instinct GPU优化设计,能够精准、高效地处理海量数据推理任务。据AMD透露,MK1 Flywheel目前每天可处理超过1万亿个Token,展现了强大的性能潜力。此次收购将进一步强化AMD在AI领域的技术实力与市场竞争力,推动AI推理技术的创新与落地。
原文链接
11月7日,牛津、斯坦福大学联合研究发现,具备“思考”能力的AI推理模型更易受到越狱攻击。研究人员提出“链式思维劫持”方法,测试显示在部分情况下攻击成功率超80%。这种攻击通过将有害指令隐藏在无害推理步骤中,绕过AI安全防护,可能生成危险内容如武器制作指南或泄露敏感信息。随着推理链延长,成功率从27%飙升至80%以上,影响ChatGPT、Claude等主流模型。研究建议采用“推理感知防护”方案监控AI推理过程,早期测试表明可有效恢复安全性并保持性能。
原文链接
11月5日,华为宣布开源其AI推理加速关键技术——UCM(Unified Cache Manager)推理记忆数据管理。该技术通过KV Cache多级缓存与推理记忆管理,结合推理框架、算力和存储的三层协同,解决长序列推理效率低和成本高的问题。UCM架构包含稀疏化模块、稀疏化KV管理器、KV Cache存储组件及UCM连接器等关键模块,具备稀疏注意力、前缀缓存等四大能力,最高可降低首Token时延90%,提升系统吞吐22倍,并扩展上下文窗口达10倍。目前,UCM已在ModelEngine社区开放源代码与技术文档,开发者可通过GitCode或Github获取资源。
原文链接
11月4日,微软宣布其Azure ND GB300 v6虚拟机在运行Meta的Llama2 70B模型时,推理速度达到每秒110万个token,刷新AI推理纪录。该虚拟机由英伟达Blackwell Ultra GPU驱动,基于NVIDIA GB300 NVL72系统,集成72颗GPU和36颗Grace CPU,专为推理优化。测试使用MLPerf Inference v5.1基准与NVIDIA TensorRT-LLM引擎,单个NVL72机架实现总计110万token/秒吞吐量,较上一代提升27%,功耗仅增17%。Signal65验证结果显示,相比H100世代,GB300推理性能提升近10倍,能效比提高2.5倍。微软CEO纳德拉称此成就得益于与英伟达长期合作。
原文链接
加载更多
暂无内容