
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月22日,荷兰AI芯片公司Axelera AI发布新款AI推理芯片Europa,面向边缘到企业服务器的多模态AI推理应用。该芯片由三部分组成:8个第二代AI核心提供629TOP INT8算力,16个RISC-V矢量处理核心用于非AI任务,集成H.264/H.265解码器卸载媒体负载。芯片内置128MB L2缓存,支持256-bit LPDDR5,总带宽达200GB/s,性能效率为同类产品3~5倍。Europa通过PCIe 4.0×4连接主机,并将以PCIe AIC附加卡形式提供,支持单芯片16GB至四芯片256GB内存的可扩展配置。
原文链接
10月21日,IBM与AI推理ASIC芯片企业Groq宣布达成战略合作,共同推动企业AI部署与应用扩展。根据协议,IBM的watsonx Orchestrate平台将整合GroqCloud AI推理平台,RedHat开源vLLM框架支持Groq的LPU架构,同时GroqCloud云服务将引入IBM Granite系列模型。此次合作结合了Groq的推理速度、成本优势及开源模型访问能力,以及IBM的AI编排功能,为企业提供高效、安全的基础架构,特别适合医疗保健等注重隐私的行业。这一合作标志着双方在加速AI技术落地方面的进一步努力。
原文链接
10月19日,外媒Gamers Nexus拆解华为Atlas 300I DUO AI推理卡,售价约1万元。该卡采用双芯设计,搭载两颗GPU共16核心,主频1.9GHz,配备48GB或96GB LPDDR4X内存,功耗150W,支持PCIe 4.0 x8接口。其AI算力在INT8格式下达80 TOPS,FP16格式下为140 TFLOPS,能效比1.86 TOPS/W,具备强大的视频编解码能力。华为称其适用于互联网、智慧城市等多场景,提供AI推理与视频分析功能。拆解显示,该卡设计简约,使用石墨烯散热垫和铝质散热片,依赖系统风扇散热。外媒评价其性能虽不及NVIDIA,但体现了华为及中国自主创新的决心。
原文链接
2025年10月15日,Intel宣布推出首款基于Xe3P架构的AI数据中心显卡,代号“Crescent Island”(新月岛)。该显卡专为AI推理负载设计,优化了高能效与低成本,仅需风冷散热。其最大亮点是集成160GB LPDDR5X内存,提供充裕容量和带宽,支持多种数据格式,非常适合TaaS任务。与HBM内存方案相比,LPDDR5X更具成本优势。尽管Intel此前的GPU Max和GPU Flex系列市场表现不佳,但此次新品被寄予厚望,或为AI领域带来新突破。
原文链接
2025年10月,AI芯片初创公司Groq宣布完成7.5亿美元融资,估值达69亿美元(约合人民币490亿),超过此前传闻。资本高度关注AI推理芯片赛道,Groq在一年多内估值翻倍,本轮由Disruptive领投,贝莱德等参投。Groq由前谷歌工程师创立,专注开发推理优化的LPU芯片,挑战英伟达在AI芯片领域的主导地位。其产品以低延迟、高吞吐和低成本为优势,适合交互式AI应用,但大规模商业化仍需突破。尽管Groq增长迅猛,支持超200万开发者,但英伟达凭借CUDA生态和软硬一体化方案仍占据80%市场份额。类似Groq的新兴公司正通过差异化竞争试图撼动行业格局。
原文链接
IBM于10月7日宣布,其AI推理加速器Spyre将在本季度正式投入商业使用。z17和LinuxONE 5将于10月28日支持Spyre,而Power11则预计在12月初支持该组件。Spyre采用PCIe AIC卡设计,功耗75W,每卡含32个加速器核心,基于5nm工艺制程,晶体管数量达256亿。z17和LinuxONE 5单机最多可部署48张Spyre卡,Power11支持16张。IBM表示,Spyre允许企业客户在本地运行多模态AI推理任务,在提升业务效率的同时确保数据与应用的安全性。
原文链接
据《科创板日报》22日报道,TrendForce研究显示,未来两年AI基础设施将聚焦高效推理服务。因大容量HDD供不应求,CSP业者转向NAND Flash供应商,推动专为AI设计的Nearline SSD需求激增。随着AI推理应用扩展,此需求将持续至2027年,预计2026年Enterprise SSD供应趋紧。
原文链接
财联社9月15日电,TrendForce集邦咨询最新研究显示,AI技术驱动的庞大数据量正对全球数据中心存储设施形成冲击。传统用于海量数据存储的Nearline HDD(近线硬盘)已出现严重缺货问题。在此背景下,高效能但成本较高的SSD逐步成为市场焦点,特别是大容量QLC SSD备受关注。预计到2026年,QLC SSD出货量有望迎来爆发性增长,满足数据中心日益增长的存储需求。
原文链接
9月9日,阿联酋穆罕默德·本·扎耶德人工智能大学与G42联合发布低成本AI推理模型“K2 Think”。该模型基于阿里巴巴开源Qwen 2.5构建,仅需320亿参数,性能却超越规模大20倍的模型,宣称性价比超同行20倍。通过长链式思维监督微调和推理阶段扩展等技术,“K2 Think”在数学、科学等特定领域表现出色。这一成果展示了阿联酋在AI领域的创新能力,同时凸显开源技术对全球AI发展的推动作用。
原文链接
当地时间9月9日,阿联酋穆罕默德·本·扎耶德人工智能大学(MBZUAI)与G42联合发布低成本推理模型“K2 Think”。该模型仅需320亿参数,性能却超越规模大20倍的同类模型,基于阿里巴巴开源Qwen 2.5构建,并在Cerebras硬件上运行。团队采用长链式思维监督微调和推理阶段扩展等技术,将其作为系统部署并持续优化。MBZUAI称,K2 Think不仅是技术突破,更是阿联酋AI领域的重要里程碑。阿联酋正努力成为全球AI领导者,以减少对原油依赖。尽管面临中美领先竞争,K2 Think专注于数学、科学等特定领域应用,旨在用更少资源实现高效推理,惠及缺乏资本的地区。
原文链接
加载更多

暂无内容