AI时代,服务器厂商能否打破薄利的命运?
AI大模型的兴起引发新一轮的“算力焦渴”。OpenAI发布的o1大模型在推理能力上显著超越了GPT-4,引入思维链技术使答案更加可靠。这一进步要求更高的算力支持,因为模型原理在训练中加入了强化学习(RL),增加了计算需求。
科技大厂加大了对AI基础设施的投入,AI服务器厂商也因此迎来了业绩的大幅增长。随着AI算力需求的进一步增长和基础设施的普及,服务器厂商有望通过AI获取更多收益。AI与服务器的深度融合推动了厂商业绩的增长,体现在AI训练加速、跨GPU模型混训平台的构建等方面。
AI服务器厂商通过深入理解AI,不仅提升了硬件基础设施的适应性,还优化了AI在基础设施中的生产力。在智算中心建设层面,服务器厂商根据AI需求调整硬件基础设施,同时结合国产算力芯片的解决方案更广泛地落地。
在软件层面,服务器厂商开始挖掘AI的生产力属性,通过推出AI赋能平台,如神州数码的神州问学平台和新华三的通信领域应用,加强了与AI应用客户的业务联系,获得了更多的软件层面收入。
AI服务器的广泛应用改变了算力载体的行业逻辑,服务器厂商通过提供更高效、密集的算力供应,成为了“卖水人”。AI大厂的加速投入使得提供AI基础设施的服务器厂商受益,业绩增长显著。全球服务器厂商,如惠普、戴尔、联想、浪潮、神州数码等,均在AI时代实现了业绩的快速增长,增长率超过50%。
旺盛的AI服务器需求推动了整个服务器行业的增长结构变化。AI服务器的市场规模预计将在2024年达到1870亿美元,成长率达到69%,远高于一般服务器1.9%的年出货量增长。随着智算中心的建设和边缘计算需求的扩展,AI服务器将进一步加速增长,议价权和盈利能力也随之提升。
面对AI大模型复杂落地过程中的挑战,如分布式并行计算、算力调度、大规模组网等,服务器厂商各显神通。算力优化主要集中在异构计算问题的解决,通过优化算力分配和异构芯片协作,提升整体算力。同时,解决不同算力硬件服务器间的协同问题,确保训练过程高效流畅,避免通信效率低下和节点故障等问题。
AI服务器厂商通过垂直整合能力,实现了算力优化和稳定性升级,提升了自己的附加值。借助AI对行业的改造,服务器厂商正以垂直一体化的姿态焕发新生,不再受限于传统制造业的利润微薄。从硬件到软件,服务器厂商在智算中心建设、国产芯片应用以及AI赋能平台开发等方面取得了显著进展,进一步拓展了业务范围,实现了利润的大幅提升。
AI时代的变革赋予了服务器厂商新的机遇和挑战,通过不断的技术创新和产品优化,服务器厂商正迎来属于自己的黄金时代。
-
2026-01-24 01:23:32 -
2026-01-24 00:23:19 -
2026-01-23 22:19:57