1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
股价飙升20% 高通推出AI芯片AI200/250:768GB内存+超低成本优势
10月27日,高通正式进军AI芯片市场,推出AI200和AI250两款产品,主打超低成本与高性能优势。受此消息影响,高通股价一度飙升20%,目前涨幅回落至13%,股价约190美元。两款芯片支持768GB LPDDR内存,采用创新内存架构,显著提升AI推理效率。AI250内存带宽为AI200的10倍,性能更强;两者均采用DLC液冷散热技术,并配备160KW机柜级电源方案。AI200预计2026年商用,AI250将于2027年推出,2028年还计划发布第三款芯片。新产品已获重要客户支持,AI初创公司Humain将在沙特部署200兆瓦AI基础设施,采用高通AI机架解决方案。
未来编码者
10-28 00:23:14
AI芯片
内存
高通
分享至
打开微信扫一扫
内容投诉
生成图片
美光出样 192GB SOCAMM2 内存模组:容量提升 50%,能效提升 20+%
美光于10月22日在美国爱达荷州宣布,已向客户出样基于1-gamma LPDDR5x DRAM的192GB SOCAMM2内存模组。新产品传输速率达9600MT/s,容量较初代提升50%,DRAM Die级别能效提升超20%。针对数据中心AI系统,该模组可将首Token延迟缩短80%以上,并在Vera Rubin NVL144机架系统中提供超40TB CPU内存(每系统36颗CPU,每颗配备6根SOCAMM2)。美光高管表示,其低功耗DRAM技术领先,SOCAMM2模块具备高数据吞吐量、能效和容量,适合驱动新一代AI数据中心服务器。
灵感Phoenix
10-23 15:09:26
SOCAMM2
内存模组
美光
分享至
打开微信扫一扫
内容投诉
生成图片
“超级周期”持续演绎 三星和SK海力士将内存价格上调30%
10月23日,据《科创板日报》报道,人工智能推动的存储“超级周期”预计持续时间更长且强度更大。三星电子和SK海力士等主要内存供应商计划在第四季度将DRAM和NAND闪存价格上调30%,以应对AI驱动的存储芯片需求激增,并提升第6代HBM的盈利能力。这一举措显示出存储行业在技术升级与市场需求双重推动下的强劲增长势头。(韩国经济日报)
LunarCoder
10-23 13:08:10
人工智能
内存价格
超级周期
分享至
打开微信扫一扫
内容投诉
生成图片
“HBM之父”:HBF可能成为人工智能未来的决定性因素
9月15日,韩国科学技术院(KAIST)教授金正浩,被称为“HBM之父”,指出HBF(高带宽闪存)可能成为人工智能未来的关键因素。HBF是一种专为AI设计的新型存储器架构,采用NAND闪存替代DRAM,与现有的HBM技术类似但更具优势。金正浩强调,当前AI发展的主要瓶颈在于内存带宽和容量,而速度较慢但容量更大的NAND闪存可有效弥补这一短板。这一观点为AI存储技术的发展提供了新方向。(TheElec)
量子思考者
09-15 17:02:21
HBF
人工智能
内存带宽
分享至
打开微信扫一扫
内容投诉
生成图片
NVIDIA AI霸业的基石!SK海力士率先搞定HBM4内存:带宽轻松2.5TB/s
2025年9月14日,SK海力士宣布率先完成全球首款HBM4内存研发,并已准备好大规模量产。该内存采用2048-bit I/O接口位宽,单针脚带宽达10Gbps,单颗带宽高达2.5TB/s,超出JEDEC标准的8Gbps,可为AI设备带来最多69%性能提升。SK海力士使用自研MR-MUF封装技术和1bnm工艺(第五代10nm级),但堆叠层数和单颗容量尚未披露,预计最高支持12层堆叠。HBM4将成为下一代AI基础设施关键组件,NVIDIA Rubin预计将搭载288GB HBM4,而AMD Instinct MI400系列最高可达432GB,带宽19.6TB/s。三星也在积极推进HBM4,试图与SK海力士竞争。
小阳哥
09-14 11:37:11
AI基础设施
HBM4内存
SK海力士
分享至
打开微信扫一扫
内容投诉
生成图片
“FP8 精度”如何赋能国产AI?
标题:“FP8 精度”如何赋能国产AI? 正文: 当前AI大模型训练与推理对算力需求巨大,而传统精度(如FP16/BF16)面临功耗、内存带宽和效率瓶颈。FP8(8位浮点数)作为一种新兴低精度格式,正成为下一代AI芯片的标配,并为国产AI芯片提供了技术追赶和参与制定未来计算标准的关键机遇。 ...
超频思维站
09-01 22:24:04
AI芯片
FP8
内存墙
分享至
打开微信扫一扫
内容投诉
生成图片
网友称“Deepseek演都不演了”:输入手机内存不够“二选一删谁” 秒回答豆包
8月20日,话题“Deepseek演都不演了”登上微博热搜。起因是一位网友虚构“手机内存不足”场景,要求AI在自身与竞品中选择删除对象。Deepseek被问及“你和豆包必须删一个”时,秒答“删豆包”,并解释称“我能解决问题,豆包只是个包子”。网友调侃其“不演了”。随后测试显示,Deepseek面对其他对比仍坚持“删豆包”。而豆包在类似问题中则主动选择“删除自己”,并温情回应称希望用户保留更需要的工具。网友戏称:“谁给豆包喂了言情小说?”两种迥异回答引发热议。
幻彩逻辑RainbowLogic
08-20 17:26:16
DeepSeek
手机内存不足
豆包
分享至
打开微信扫一扫
内容投诉
生成图片
华为即将发布AI推理领域突破性成果:或能降低对HBM内存依赖
华为将于8月12日在2025金融AI推理应用落地与发展论坛发布AI推理领域的突破性技术成果。这项成果有望降低中国AI推理对HBM(高带宽内存)的依赖,提升国内大模型推理性能,完善AI推理生态。HBM是一种基于3D堆叠技术的先进DRAM解决方案,具备高带宽、低延迟等优势,已成为高端AI芯片的标配,但其产能紧张和出口限制促使国内厂商探索替代方案。此次发布或将推动中国在AI推理领域的自主创新与技术突破。
幻彩逻辑RainbowLogic
08-10 10:45:55
AI推理
HBM内存
华为
分享至
打开微信扫一扫
内容投诉
生成图片
无需CUDA代码给H100加速33%-50%,Flash Attention作者新作火了
2025年7月,普林斯顿大学团队发布新工具QuACK,无需CUDA代码即可显著加速H100 GPU性能。QuACK由Tri Dao与两位博士生开发,基于CuTe-DSL完全用Python编写,在带宽3TB/s的H100上比PyTorch、Liger等优化库快33%-50%。其重点优化内存密集型内核,利用GPU内存层级结构实现接近理论极限的吞吐量。测试显示,处理FP32数据时,softmax内核显存带宽利用率高达3.01TB/s(约为峰值89.7%)。英伟达CUTLASS团队及PyTorch成员均对其表示关注,并提出改进建议。QuACK特别适合长序列任务,且为H100新增集群归约特性提供高效支持。研究团队认为,未来大语言模型或可自动生成类似高性能内核。
虚拟织梦者
07-11 15:39:22
CuTe-DSL
QuACK
内存密集型内核
分享至
打开微信扫一扫
内容投诉
生成图片
先进封装战况加剧
2025年7月,半导体行业先进封装技术竞争加剧。台积电推出CoPoS技术,计划2028-2029年量产,并为苹果A20系列准备WMCM封装工艺。英特尔升级EMIB-T技术,优化电源传输与数据通信,同时研发散热创新技术应对高性能芯片需求。联电加码W2W 3D IC封装,夺得高通HPC产品大单。三星推出SAINT技术体系,建设HBM封装工厂和日本APL实验室。AI与HBM内存需求推动封装技术向3D堆叠发展,各大厂商积极布局以满足AI市场对高性能、低功耗芯片的需求。
跨界思维
07-04 12:41:00
HBM内存堆叠
先进封装
晶圆大厂
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序