综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
11月13日,安谋科技在上海发布新一代NPU IP“周易”X3,采用DSP+DSA混合架构,适用于基础设施、智能汽车、移动终端和智能物联网领域。该产品单集群FP8 AI算力达8~80 TFLOPS,支持W4A8/W4A16计算加速模式,单核心带宽256GB/s,并集成自研WDC解压硬件,等效带宽提升15%。软件生态上,“周易”X3搭载Compass AI平台,兼容TensorFlow、PyTorch等主流框架,支持大模型量化方案及多种AI模型。相比上代,其FP16算力提升16倍,带宽增加4倍,CNN模型性能提升30%-50%,同算力下AIGC能力提升10倍。
原文链接
2025年10月19日,高通发布新一代PC平台骁龙X2 Elite系列,其NPU算力高达80 TOPS,远超AMD和Intel的50 TOPS。高通技术公司产品管理副总裁Vinesh Sukumar表示,设计目标是将AI算力较上一代翻倍,并提升软件效率10-15%。高算力旨在优化大模型首个Token生成时间、支持内容创作者高效处理图像与视频,以及实现多任务并发处理。此外,高通正与微软合作开发全球首个INT2 2-bit模型,显著降低内存占用,例如70亿参数模型在INT2下仅需2GB内存。高通认为,未来通过混合精度和量化感知训练可进一步提升模型性能。Vinesh强调,AI已深度融入用户日常应用,高通致力于从小处着手改善体验,推动稳健成长。
原文链接
10月12日,微软联合Intel、AMD、高通等公司推出AI PC,尽管价格高于普通电脑,但其优势在于以更低成本实现复杂AI体验。微软称,过去需数千美元的计算能力,如今几百美元的设备即可完成,大幅降低技术使用门槛。不过,市场对AI PC的实际应用仍有质疑,本地运行AI模型尚存局限性,且厂商推出的实用AI功能较少。尽管如此,微软强调AI PC让更多人能轻松接触高端技术,推动AI普及化。
原文链接
标题:联发科天玑9500双NPU架构,开启AI常驻新时代
正文:
智能手机中的AI若要实现“主动服务”,而非仅作为被动调用的功能模块,芯片架构需要怎样的革新?联发科的答案是:通过超性能+超能效双NPU架构,打造“AI Always on”的体验。
这一设计让AI不再依赖用户唤醒,而是始终在线...
原文链接
8月25日,韩国AI芯片企业Rebellions在Hot Chips大会上发布首款采用UCIe-Advanced互联技术的NPU芯片REBEL-Quad。该芯片通过先进封装实现更密集、节能的连接,每个芯片包含4个单元,每单元由1个NPU计算芯片、1个HBM3E内存堆栈和1个硅电容器组成,支持对外提供UCIe端口。其计算芯片基于三星SF4X制程,配备512MB片上SRAM缓存,四个HBM3E堆栈提供144GB容量与4.8TB/s带宽,并采用CoWoS-S工艺集成。REBEL-Quad标准TDP为600W,算力达2 PFLOPS FP8 / 1 PFLOPS FP16,具备2组PCIe 5.0×16接口,性能表现突出。
原文链接
2025年7月31日,AMD被曝计划开发一款面向PC用户的独立NPU(神经处理单元),旨在为普通PC提供强大的AI性能。AMD客户端CPU业务负责人Rahul Tikoo正评估该产品市场前景,目标是推动AI普及化。独立NPU类似独立显卡,专注于AI计算,对标高通的Cloud AI 100 Ultra推理卡等产品。目前,专用AI引擎已广泛应用于笔记本电脑,如AMD的Strix Point和英特尔的Lunar Lake系列,但普通消费级PC尚无此类选项。尽管独立NPU市场需求存疑,但若AMD聚焦专业领域,可能开辟新市场空间。
原文链接
7月22日,AMD宣布与Stability AI合作推出全球首款采用BF16精度格式的Stable Diffusion 3 Medium开源图片生成模型。该模型专为AMD锐龙AI 300/锐龙AI Max 300系列处理器中的XDNA 2架构NPU优化,需24GB系统内存和9GB运行内存,可在总内存不足32GB的笔记本上实现高质量本地图片生成。此外,搭载XDNA 2 NPU的平台支持超分辨率功能,可将生成的1024×1024图像增强至2048×2048。用户仅需三步即可完成本地部署:安装最新版AMD Software: Adrenalin Edition、Amuse 3.1 Beta,并在Amuse中切换至“XDNA 2 Stable Diffusion Offload”。
原文链接
2025年被称为“边缘生成式AI元年”,半导体产业正经历巨大变革。IDC数据显示,全球边缘AI芯片市场规模在2025年第一季度同比增长217%,增速远超云端AI芯片市场。GPU、NPU、FPGA呈现不同演化路径。GPU凭借强大的稀疏计算和可编程性脱颖而出,但需解决热管理和多任务共存问题;Imagination的E系列GPU IP通过创新提升性能和能效。NPU聚焦AI推理优化,具有高效能比和任务专一性,在实时性要求高的场景中表现优异;如NXP的i.MX 95系列在图像识别中提升速度四倍且降耗30%。FPGA因可重构性和低延迟特性,在复杂场景中优势明显,如支持8K视频处理。各大厂商通过并购加强布局,如意法半导体收购DeepLite优化算法,高通购入Edge Impulse简化开发流程,恩智浦整合Kinara提升AI处理能力。这场技术浪潮才刚拉开序幕。
原文链接
标题:Bye,英伟达!华为NPU,跑出了准万亿参数大模型
正文:
现在,训练万亿参数大模型不再依赖英伟达,华为做到了!技术报告发布在arxiv.org/abs/2505.04519。
此前,训练万亿参数大模型面临负载均衡难、通信开销大等问题。华为盘古团队基于昇腾国产算力平台,完成了7180亿...
原文链接
异构计算与低功耗NPU:高通推动终端侧生成式AI发展
概述
在2024全球AI芯片峰会上,高通AI产品技术中国区负责人万卫星阐述了高通在终端侧生成式AI领域的创新与贡献。高通持续在AI领域深耕,其领先SoC解决方案集成了异构计算系统与高性能低功耗NPU,以满足生成式AI应用的多样化需求与效能要求。
...
原文链接
加载更多
暂无内容