综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年11月12日,AMD发布Zen6、Zen7架构路线图,披露下一代EPYC处理器将搭配Instinct MI400系列AI加速卡。MI400采用CDNA 5架构和3.5D Chiplets封装,配备第五代Infinity Fabric高速互连总线,与EPYC处理器完美适配。新平台还将支持80万兆带宽的AI NIC以太网卡,传输速率理论最高达224Gbps(加速卡/网卡)和64Gbps(EPYC)。新技术旨在应对NVIDIA下一代Vera CPU、Rubin GPU及同类网卡的竞争。未来Zen7架构EPYC将升级至MI500系列加速卡,进一步巩固AMD在高性能计算领域的地位。
原文链接
11月12日,江原科技发布国内首款全国产算力中心级推理加速卡——江原D20系列AI加速卡,包括D20、D20 Pro和D20 Max三款配置。该产品基于全流程国产化产业链打造,实现高端AI芯片完全自主可控,支持多种精度与PCIE5.0传输。D20 Pro单卡提供128GB显存,4卡互联可达512GB;D20 Max单卡显存达256GB,两卡互联即可实现512GB。实测显示,运行主流大模型时响应速度提升40%,能耗降低25%。产品适配智慧制造、金融科技等行业,支持200+主流模型及国内外服务器厂商,兼容国产操作系统。
原文链接
2025年10月,OpenAI与博通宣布合作,将共同部署10GW规模的AI加速器,预计2026年下半年开始部署,2029年底前完成。OpenAI负责设计芯片与系统,博通负责开发与部署,双方已合作约18个月。OpenAI自研芯片旨在优化特定工作负载,缓解算力瓶颈,并利用AI加速芯片设计。此外,OpenAI还与英伟达、AMD达成类似合作,分别部署10GW和6GW的AI集群。OpenAI总裁Greg Brockman透露,自研芯片是垂直整合的关键,有助于提升效率并降低成本。目前,OpenAI正研发一款推理芯片,最快或在9个月内实现量产。
原文链接
10月13日,OpenAI与博通宣布达成战略合作,计划于2026年推出定制数据中心芯片并部署10吉瓦的AI加速器。博通盘前股价因此大涨12%。双方将共同开发包括博通加速器和以太网解决方案在内的系统,用于纵向与横向扩展。博通将负责部署人工智能加速器和网络系统机架,预计2026年下半年启动,并于2029年底完成。OpenAI将设计加速器和系统,通过与博通合作开发和部署,将其前沿模型的知识嵌入硬件,提升能力和智能水平。这些系统将采用博通的以太网解决方案进行扩展,满足全球对人工智能的需求,并部署于OpenAI及其合作伙伴的数据中心。
原文链接
2025年9月25日,高通在第十届骁龙技术峰会的北京分会场启动了“AI加速计划”。该计划联合13家合作伙伴,包括GTI、中国电信、小米、荣耀等,旨在推动边缘智能能力与应用场景的创新,加速AI在各行业的规模化落地。此次峰会首次在中国设立分会场,凸显高通对中国市场的重视。这也是高通成立40周年及进入中国30周年的关键节点,延续此前“5G领航计划”和“5G物联网创新计划”的成功经验,进一步布局AI新时代的技术生态。
原文链接
9月24日,2025骁龙峰会·中国在北京开幕,高通携手生态伙伴发布“AI加速计划”,推动边缘智能能力与应用场景的规模化落地。峰会以“灵光闪烁 有龙则灵”为主题,展示了智能手机、汽车、XR等领域的百余项技术创新。高通中国区董事长孟樸回顾了公司植根中国30年的合作历程,并展望AI与连接重塑终端的新时代。高通CEO安蒙指出六大趋势驱动AI未来发展,“AI加速计划”将围绕智能手机、智能体AI及模型应用探索展开。来自GTI、中国电信、中国移动、中国联通等合作伙伴代表出席活动并分享未来合作愿景。
原文链接
9月19日,英特尔发布最新AI加速器Gaudi 3,包含OAM模块、多OAM卡基板和PCIe AIC三种形式。尽管市场反响平淡,但戴尔于美国时间17日宣布,其PowerEdge XE7740服务器率先支持Gaudi 3 PCIe AIC(HL-338)配置,成为首家提供该集成方案的厂商。HL-338 TDP为600W,配备128GB HBM2E内存和3.7TB/s带宽,功耗低于900W的HL-325L。XE7740服务器可安装8张HL-338卡,并支持四路桥接扩展,能在10kW风冷限制下提供强大AI微调与推理算力资源。
原文链接
《科创板日报》23日消息,阿里云发布全新AI加速框架PAI-TurboX,专为自动驾驶领域模型设计。该框架通过优化训练和推理过程,显著提升感知、规划控制及世界模型的效率。据测试显示,在多种行业模型训练任务中,PAI-TurboX能将训练时间平均缩短50%,大幅提高研发效率。此技术突破将助力自动驾驶等行业加速技术创新与落地应用。
原文链接
AMD CEO苏姿丰在Advancing AI 2025活动中预测,AI数据中心加速器市场将以60%复合年增长率增长,预计2028年市场规模将达到5000亿美元。她指出,AI需求已从模型训练扩展至云应用、边缘AI及客户端AI等领域,推动加速器市场持续扩大。AMD计划通过打造领先计算引擎、开放生态及全栈解决方案抢占市场先机。会上,AMD推出Instinct MI350系列,性能媲美英伟达Blackwell。同时,AMD发布ROCm 7软件栈,强化其AI生态布局。AMD正全力追赶英伟达,欲在AI领域占据重要地位。
原文链接
AMD 在德国汉堡举行的 2025 年 ISC 高性能计算大会上提前展示了即将发布的 Instinct MI350 系列 'CDNA 4' 架构 AI 加速器。该系列包括两种变体:MI350X(峰值功耗 1000W,面向风冷系统)和性能更强的 MI355X(峰值功耗 1400W,支持风冷和直接液冷)。MI350X 的性能约为 MI355X 的 91%-92%。MI350 系列采用 3nm 制程,配备 288GB HBM3E 内存,并支持 FP6 和 FP4 低精度数据格式,其在 FP16 和 FP8 上的算力较前代 MI325 系列提升 1.8 倍。此外,每个 MI350 平台可支持 8 卡配置。预计正式发布日期为北京时间 6 月 13 日。
原文链接
加载更多
暂无内容