
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
分析机构Omdia于8月28日预测,AI数据中心芯片市场将在2025年达到2070亿美元,较2024年的1230亿美元大幅增长,这一年的增幅接近未来五年总和。到2026年,AI基础设施支出将占数据中心总支出的峰值,随后增速逐步放缓,至2030年市场规模预计为2860亿美元。非英伟达GPU解决方案(如ASIC、ASSP及AMD加速器)正获得更多市场青睐。分析师Alexander Harrowell指出,AI应用普及、模型微调需求以及推理模型推动增长,但更小、更高效的模型正减缓计算需求,技术优化也在提升效率。
原文链接
2025年7月25日,中国市场上AI芯片维修需求激增,十余家小型公司专门维修英伟达H100、A100等高端GPU。这些被美国禁售的芯片通过特殊渠道流入国内。深圳一商家自2024年底转型维修AI芯片,现月均维修量达500块,并配备256台服务器测试机房保障质量。因禁令限制,英伟达无法提供官方维修服务,而未经授权的维修被其称为“不可行”。尽管英伟达推出中国特供版H20芯片,但售价超百万元且性能难以满足大模型训练需求。业内人士称,H100/A100因高负荷运转故障率攀升,寿命仅2-5年。维修报价1-2万元/块,市场需求已扩展至最新B200芯片,搭载8块B200的服务器售价突破300万元。
原文链接
2025年7月,英伟达GPU被曝出严重漏洞,一种名为GPUHammer的Rowhammer攻击可致模型准确率从80%暴跌至0.02%,影响相当于‘灾难性脑损伤’。多伦多大学研究人员在RTX A6000上测试成功,其他型号也可能受影响。该攻击通过物理方式篡改显存数据,可能危及自动驾驶、医疗AI等关键领域。英伟达建议启用系统级纠错码(ECC)防御,但会导致性能下降3%-10%。研究指出,部分GPU架构(如RTX 3080、A100)因设计不同暂不受影响,未来片上ECC和内存隔离技术有望增强防护。AI模型安全建设面临新挑战。
原文链接
2025年7月23日,埃隆·马斯克在X平台公布xAI未来五年算力目标,计划实现等效5000万块英伟达H100 GPU的算力,同时强调能效更优。xAI正建设Colossus 2超级集群,首批英伟达GB200/GB300系统预计数周内上线。此外,为支持大规模AI算力建设,xAI正洽谈一笔高达120亿美元的新投资,用于扩大GPU租赁规模。与此同时,竞争对手OpenAI的CEO萨姆·奥尔特曼提出到2025年底实现1亿块GPU的技术愿景,远超其当前目标百倍。
原文链接
据1日《科创板日报》报道,有传闻称苹果拟出资10亿美元购入英伟达GB300 NVL72芯片,但知名分析师郭明錤认为此举短期内无法显著增强苹果在AI领域的竞争力。郭指出,此订单规模较小,仅为Meta Platforms同期采购量(约130万个GPU)的1/70,且Meta正集中资源开发大语言模型AI服务器,以优化运营效率。相比之下,苹果在此方面可能缺乏相应布局。
原文链接
财联社2月18日电,马斯克在直播中首次透露,Grok 3的训练成本高达20万块英伟达GPU。训练工作在xAI公司的数据中心内完成。
原文链接
【Cerebras Systems发布全球最快AI推理解决方案】8月28日,Cerebras Systems宣布推出全新AI推理解决方案——Cerebras Inference,此方案在性能上超越了当前市场上的主流AI推理解决方案,速度达到了英伟达同类方案的20倍。针对Llama 3.1 8B和70...
原文链接
【SK电信与Lambda合作在首尔设立AI数据中心】韩国最大电信运营商SK电信宣布,将于12月在首尔江南区与GPU云服务公司Lambda合作开设AI数据中心,全部配备英伟达GPU。双方已签署AI云服务合作协议,旨在扩大GPU即服务(GPUaaS)业务,并巩固Lambda在韩国的地位。Lambda成立...
原文链接
苹果近期在研究论文中透露,其正在开发的AI大模型底层使用的是谷歌TPU(张量处理器),而非业界常用的英伟达GPU(图形处理器)。此举标志着苹果在AI模型构建上的选择转向了谷歌的TPU,而非英伟达的GPU,这引发了关于苹果是否在AI领域对英伟达构成威胁的讨论。
苹果为了在其设备如iPhone上运行A...
原文链接
近期,Meta在其研究报告中揭示了训练Llama 3 405B参数模型的挑战。在包含16384个Nvidia H100 GPU的集群上运行时,平均每三个小时发生一次故障,54天内经历了419次意外故障。故障中,58.7%归因于GPU及其高带宽内存(HBM3),导致单个GPU故障会中断整个训练过程。然...
原文链接
加载更多

暂无内容