综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年11月,月之暗面联合清华大学推出全新强化学习加速引擎Seer,显著提升LLM训练效率。该框架通过推理引擎池、请求缓冲区和上下文管理器三大模块,结合分段生成、上下文感知调度及自适应分组推测解码技术,实现Rollout效率提升74%~97%,长尾延迟减少75%~93%。实验表明,Seer在Moonlight、Qwen2-VL-72B等模型任务中性能大幅超越基线系统veRL,尤其在长尾延迟优化上表现突出。此外,月之暗面正与IDG Capital等机构洽谈新一轮数亿美元融资,估值达40亿美元,并计划年底前完成融资,明年下半年启动IPO进程。
原文链接
11月24日,上海市发布《若干措施》,提出建立以临床价值为导向的创新医疗器械筛选评估机制,加速产品转化上市。文件聚焦细胞与基因治疗、人工智能医疗器械等重点领域,制定在研重点品种服务清单,提供临床试验到生产许可全流程指导。同时,夯实国家、市、区三级联动服务机制,支持长三角药监分中心能力提升,并推动区域伦理协作审查,简化流程、缩短时间。此外,加强医疗数据标准化建设,助力研发创新,为生物医药产业高质量发展提供政策保障。
原文链接
11月21日,OpenAI发布《GPT-5科学加速报告》,展示GPT-5如何助力科学家日常工作。数学家用其证明公式,物理学家进行对称性分析,免疫学家细化假设与设计实验。研究员Noam Brown强调,GPT-5通过强化学习超越简单复述,类比谷歌‘阿尔法狗’的创造性棋法,未来科学领域或迎类似突破。GPT-5强项包括快速生成完整证明、挖掘相关论文及提供生物学因果链分析,但需质疑才能自我纠正。尽管在形式化学科表现突出,仍存在偏科与不完美之处,实用性显著但未颠覆传统科研模式,人类仍主导研究方向。
原文链接
11月19日,群联电子在美国SC25大会上发布两款PCIe 5.0企业级SSD新品Pascari X201和D201。X201专为数据密集型任务设计,容量达30.72TB,支持U.2/E3.S规格;D201优化云存储性能,容量15.36TB,支持E1.S规格。两款产品均提供14.5GB/s和12GB/s顺序读写速率,随机读写分别达3300K IOPS和1050K IOPS,并有1DWPD/3DWPD耐久配置。同时,群联推出aiDAPTIV+显存扩充方案,可将AI应用性能提升25倍,特定场景响应时间从73秒缩短至4秒,显著加速核显平台AI推理任务。
原文链接
2025年11月12日,AMD发布Zen6、Zen7架构路线图,披露下一代EPYC处理器将搭配Instinct MI400系列AI加速卡。MI400采用CDNA 5架构和3.5D Chiplets封装,配备第五代Infinity Fabric高速互连总线,与EPYC处理器完美适配。新平台还将支持80万兆带宽的AI NIC以太网卡,传输速率理论最高达224Gbps(加速卡/网卡)和64Gbps(EPYC)。新技术旨在应对NVIDIA下一代Vera CPU、Rubin GPU及同类网卡的竞争。未来Zen7架构EPYC将升级至MI500系列加速卡,进一步巩固AMD在高性能计算领域的地位。
原文链接
11月12日,江原科技发布国内首款全国产算力中心级推理加速卡——江原D20系列AI加速卡,包括D20、D20 Pro和D20 Max三款配置。该产品基于全流程国产化产业链打造,实现高端AI芯片完全自主可控,支持多种精度与PCIE5.0传输。D20 Pro单卡提供128GB显存,4卡互联可达512GB;D20 Max单卡显存达256GB,两卡互联即可实现512GB。实测显示,运行主流大模型时响应速度提升40%,能耗降低25%。产品适配智慧制造、金融科技等行业,支持200+主流模型及国内外服务器厂商,兼容国产操作系统。
原文链接
标题:加速进化能否成为“具身智能时代的苹果”?
正文:
量产交付仅20分钟,首批全款订单售罄!加速进化最新发布的入门级具身开发平台Booster K1(限时2.99万元起售)凭借皮实耐用、轻量便携、二次开发与智能操控能力,迅速赢得市场青睐。在具身智能领域,能交付、稳定运行的产品仍稀缺,而Booste...
原文链接
10月20日,英特尔在2025 OCP全球峰会上展示了一款高效异构AI系统。该系统结合英特尔自家Gaudi3 AI加速器与英伟达B200 GPU,分工明确:B200负责AI模型预填充,Gaudi3负责解码。相比仅使用B200的同构方案,新系统在Llama开源模型上实现了高达70%的同TCO性能提升。此外,这一混合机架系统采用英伟达ConnectX-7 400GbE网卡、BlueField-3 DPU及博通Tomahawk 5交换芯片,扩展能力更强。此创新为AI计算领域带来更高效率和灵活性,值得关注。
原文链接
2025年10月,OpenAI与博通宣布合作,将共同部署10GW规模的AI加速器,预计2026年下半年开始部署,2029年底前完成。OpenAI负责设计芯片与系统,博通负责开发与部署,双方已合作约18个月。OpenAI自研芯片旨在优化特定工作负载,缓解算力瓶颈,并利用AI加速芯片设计。此外,OpenAI还与英伟达、AMD达成类似合作,分别部署10GW和6GW的AI集群。OpenAI总裁Greg Brockman透露,自研芯片是垂直整合的关键,有助于提升效率并降低成本。目前,OpenAI正研发一款推理芯片,最快或在9个月内实现量产。
原文链接
10月13日,OpenAI与博通宣布达成战略合作,计划于2026年推出定制数据中心芯片并部署10吉瓦的AI加速器。博通盘前股价因此大涨12%。双方将共同开发包括博通加速器和以太网解决方案在内的系统,用于纵向与横向扩展。博通将负责部署人工智能加速器和网络系统机架,预计2026年下半年启动,并于2029年底完成。OpenAI将设计加速器和系统,通过与博通合作开发和部署,将其前沿模型的知识嵌入硬件,提升能力和智能水平。这些系统将采用博通的以太网解决方案进行扩展,满足全球对人工智能的需求,并部署于OpenAI及其合作伙伴的数据中心。
原文链接
加载更多
暂无内容