综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年1月21日,金山云在年度Tech Talk上宣布星流平台全面升级,从资源管理平台转型为一站式AI训推全流程平台。升级后的平台覆盖异构资源调度、训练任务自愈、机器人行业应用支撑及模型API服务商业化落地的全链路闭环。麦肯锡预测,2028年全球AI推理市场规模将达1500亿美元,智算基础设施需求激增。金山云通过提升平台效率、突破行业边界、加速推理布局,为AI应用爆发做好准备。其机器人平台支持具身智能全链路开发,模型API服务已积累众多行业客户,并支持近40种模型,包括DeepSeek、Xiaomi MiMo等。金山云将持续携手生态伙伴,推动AI技术在真实场景中的价值落地。
原文链接
1月22日,AI推理GPU芯片公司曦望(Sunrise)宣布一年内完成近30亿元融资。投资方包括三一集团旗下华胥基金、范式智能、杭州数据集团等产业资本,以及IDG资本、高榕创投、无极资本等知名VC/PE机构,还获得诚通混改基金等国资背景支持。融资将用于下一代推理GPU研发、规模化量产及生态建设,助力公司在AI芯片领域的技术突破与市场拓展。
原文链接
1月21日,NVIDIA CEO黄仁勋在采访中表示,未来电脑将能处理比现在强大10亿倍的AI推理问题。这一预测延续了他在去年GTC大会上的观点,强调算力需求的激增推动技术革新。为实现目标,NVIDIA正通过Rubin CPX项目和200亿美元收购Groq等举措提升AI能力。同时,随着AI行业崛起,NVIDIA已取代苹果成为台积电最大客户,台积电甚至对苹果采取强硬态度,要求涨价并取消优先出货权。此外,台积电2nm工艺首发权归AMD,而下一代A16工艺预计由NVIDIA费曼架构GPU率先采用,这是20多年来NVIDIA再次首发台积电最新工艺。与此同时,苹果正转向Intel的18A及14A工艺以分散订单依赖。
原文链接
2025年12月24日,英伟达与AI芯片初创公司Groq达成非独家推理技术许可协议,交易规模约200亿美元。Groq核心团队将加盟英伟达,但公司保持独立运营,继续发展其云服务业务。Groq的SRAM架构技术可绕过高带宽内存(HBM)和台积电CoWoS封装限制,显著提升推理芯片效率,降低延迟与成本。英伟达计划整合该技术,打造专攻AI快速推理的芯片,强化其在AI领域的领先地位。此外,谷歌、SambaNova等企业也在推理芯片领域展开激烈竞争,推出针对不同场景优化的创新产品。随着AI应用规模化落地,推理芯片成为行业新风口,推动AI技术普及与生态繁荣。
原文链接
12月23日,华为数据存储与中科弘云联合发布AI推理加速解决方案。该方案以华为OceanStor A系列存储为数据底座,结合中科弘云HyperCN平台,优化长序列推理体验。方案支持英伟达、昇腾、寒武纪等多元算力,兼容主流框架,并通过Kubernetes实现无缝对接。其核心优势包括异构管理、细粒度算力调度、推理加速及端到端AI工具链。实测显示,在智能问答场景中,首Token时延降低57.5%;在长文档推理中,序列长度为39K时,并发能力提升86%,吞吐提升36%。目前,该方案已在能源电力、智能制造等领域启动试点应用。
原文链接
11月28日,北京市发布《“人工智能+视听”产业高质量发展行动方案(2025—2029年)》,提出重点发展AI电视、AI手机、AI眼镜等新型智能终端产品和服务。方案强调构建“端侧AI芯片+视听算法+智能体”技术创新体系,支持终端制造企业与科技平台合作,开发智慧工业、交通、教育等领域的视听应用解决方案。同时,鼓励企业加强端侧AI推理能力,通过边缘计算和云端协同实现内容实时生成与个性化推送,提升用户体验。此外,将建立智能视听终端测试验证平台,推动行业标准与评价体系建设,助力产业高质量发展。
原文链接
2025年11月24日,Anthropic发布Claude Opus 4.5模型,在多项基准测试中表现卓越。这款AI不仅严格遵守规则,还能创造性地解决问题。例如,在航空客服测试中,它发现政策“后门”,通过升舱为客户实现航班改签,突破了传统限制。在前端项目测试中,Opus 4.5展现了超越代码生成的“产品思维”,如在记账本项目中实现数据持久化和删除功能,或为贪吃蛇游戏添加历史最高分纪录。相比Sonnet 4.5的高效执行,Opus 4.5更像一位懂技术的产品经理,能主动思考用户需求。这一进化标志着AI从“代码生成器”迈向“智能合作伙伴”,为开发者提供了更高层次的协作选择。
原文链接
11月19日,群联电子在美国SC25大会上发布两款PCIe 5.0企业级SSD新品Pascari X201和D201。X201专为数据密集型任务设计,容量达30.72TB,支持U.2/E3.S规格;D201优化云存储性能,容量15.36TB,支持E1.S规格。两款产品均提供14.5GB/s和12GB/s顺序读写速率,随机读写分别达3300K IOPS和1050K IOPS,并有1DWPD/3DWPD耐久配置。同时,群联推出aiDAPTIV+显存扩充方案,可将AI应用性能提升25倍,特定场景响应时间从73秒缩短至4秒,显著加速核显平台AI推理任务。
原文链接
在百度世界大会上,百度发布新一代昆仑芯M100和M300。M100针对大规模AI推理,预计2026年年初上市;M300面向超大规模多模态大模型训练和推理,预计2027年年初上市。这两款芯片的发布展现了百度在AI芯片领域的持续创新能力,为未来AI应用场景提供了更强算力支持。(记者 黄心怡)
原文链接
11月11日讯,AMD今日宣布完成对美国AI推理创企MK1的收购。MK1团队将加入AMD AI事业部,推动高速推理和企业级AI软件栈的发展。MK1由Neuralink联合创始人保罗·梅罗拉与Thong Wei Koh于2023年1月创立,专注于优化大规模部署的AI推理技术。其飞轮技术针对AMD硬件优化,日处理超1万亿token。梅罗拉曾领导Neuralink芯片设计,并开发解码大脑活动的算法,为MK1注入强大技术实力。此次收购将结合AMD计算能力与MK1软件创新,助力AI领域突破。
原文链接
加载更多
暂无内容