
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
《科创板日报》23日消息,阿里云发布全新AI加速框架PAI-TurboX,专为自动驾驶领域模型设计。该框架通过优化训练和推理过程,显著提升感知、规划控制及世界模型的效率。据测试显示,在多种行业模型训练任务中,PAI-TurboX能将训练时间平均缩短50%,大幅提高研发效率。此技术突破将助力自动驾驶等行业加速技术创新与落地应用。
原文链接
AMD CEO苏姿丰在Advancing AI 2025活动中预测,AI数据中心加速器市场将以60%复合年增长率增长,预计2028年市场规模将达到5000亿美元。她指出,AI需求已从模型训练扩展至云应用、边缘AI及客户端AI等领域,推动加速器市场持续扩大。AMD计划通过打造领先计算引擎、开放生态及全栈解决方案抢占市场先机。会上,AMD推出Instinct MI350系列,性能媲美英伟达Blackwell。同时,AMD发布ROCm 7软件栈,强化其AI生态布局。AMD正全力追赶英伟达,欲在AI领域占据重要地位。
原文链接
AMD 在德国汉堡举行的 2025 年 ISC 高性能计算大会上提前展示了即将发布的 Instinct MI350 系列 'CDNA 4' 架构 AI 加速器。该系列包括两种变体:MI350X(峰值功耗 1000W,面向风冷系统)和性能更强的 MI355X(峰值功耗 1400W,支持风冷和直接液冷)。MI350X 的性能约为 MI355X 的 91%-92%。MI350 系列采用 3nm 制程,配备 288GB HBM3E 内存,并支持 FP6 和 FP4 低精度数据格式,其在 FP16 和 FP8 上的算力较前代 MI325 系列提升 1.8 倍。此外,每个 MI350 平台可支持 8 卡配置。预计正式发布日期为北京时间 6 月 13 日。
原文链接
惠普于5月14日宣布与Hailo合作,基于Hailo-10H 40TOPS AI加速器推出HP AI Accelerator M.2卡,专为零售和酒店行业设计。该产品旨在解决传统云AI方案中的网络不稳定、延迟及高昂成本等问题,通过边缘AI技术提升效率。HP AI Accelerator M.2卡支持实时库存管理、欺诈预防以及个性化推荐等功能,助力行业优化运营并改善客户体验。此产品预计于2025年8月正式上市。
原文链接
5月28日,《科创板日报》报道,‘陆创AI加速器’在张江科学城“科学之门”正式揭幕。该加速器依托张江“3+3+X”产业体系,聚焦集成电路、生物医药、人工智能等领域,目标是成为全球领先的人工智能创新应用中心。签约企业涵盖机器人、卫星通信、智能制造等多领域,总服务面积达5000平方米。加速器主理人沈文轩强调其核心价值在于应用层和场景层,可帮助企业实现开源节流。入驻企业认为,这里不仅能获得高效服务,还能促进产业链上下游合作。陆家嘴集团还与多个协会达成战略合作,共同推动上海科创地标建设。未来五年,加速器计划引进50多家AI企业,并与上百个投资机构建立合作关系,二期建设将于年底启动。
原文链接
5月8日,英国芯片设计公司Imagination Technologies发布全新E-Series系列GPU IP产品,AI性能较前代提升400%,适用于工业视觉、辅助驾驶等场景。该系列产品支持从2到200 TOPS INT8精度AI工作负载,具备高度灵活性和可扩展性。Imagination中国董事长白农称,这是公司在图形与计算领域的又一里程碑,首款产品将于2025年秋季上市。全新GPU IP支持多种CPU架构,并可通过Chiplet技术实现灵活集成。2023财年,Imagination总收入达1.24亿英镑,同比增长3.6%。据IDC预测,2028年全球AI投资规模将达8159亿美元,中国市场占比显著。Imagination计划继续加大对中国市场的投入,深化与本地生态合作。
原文链接
2025年2月21日,DeepSeek宣布启动“Open Source Week”,首推的开源代码库是FlashMLA。FlashMLA是一个专为高性能GPU优化的“加速器”,尤其针对NVIDIA Hopper架构GPU如H800。
FlashMLA设计了一套“快速查找系统”,使AI模型在推理时能更...
原文链接
2月5日,国产AI加速卡昆仑芯宣布其新一代产品P800万卡集群点亮,3万卡集群即将点亮。昆仑芯已完成DeepSeek训练推理全版本适配,性能卓越且成本效率高。P800支持DeepSeek系列MoE模型的大规模训练,显存规格优于主流GPU 20-50%,可显著降低运行成本。此外,昆仑芯还全面适配了文心系列、Llama、Qwen等大模型的推理和训练任务。
原文链接
英特尔Gaudi 2D AI加速器已针对DeepSeek新发布的Janus Pro模型进行优化,该模型集成多模态理解和生成功能,并采用统一Transformer架构。Janus Pro提供10亿和70亿参数版本,通过优化训练策略和扩展模型规模,显著提升了文生图等功能的性能与稳定性。英特尔Gaudi 2D凭借2.45TB/s的高带宽和96GB HBM内存,大幅缩短生图批处理任务的时间,仅需约10秒即可生成16张高质量图片。此举为AI应用的落地和规模化发展提供了支持。
原文链接
当地时间1月6日,Marvell宣布在定制AI加速器架构上取得突破,采用了CPO(共封装光学)技术,大幅提升了服务器性能。新架构使AI服务器能力从单个机架内数十个XPU扩展至跨越多个机架的数百个XPU。Marvell表示,其CPO架构基于多代硅光子技术,已运行超过8年,累计运行时间超100亿小时。
原文链接
加载更多

暂无内容