综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年10月23日,Mobileye发布2025财年第三季度财报,营收达04亿美元,同比增长4%,EyeQ芯片出货量持续增长。公司上调全年营收预期至45亿–18.85亿美元,预计同比增长12%–14%。期内,经营活动现金流净额为89亿美元,完成1亿美元股票回购,账面现金及现金等价物达17亿美元。创始人兼CEO Amnon Shashua表示,合作车型量产稳步推进,基于EyeQ6 High的方案和SuperVision系统表现良好,并计划于2026年启动无人驾驶出租车商业化运营。此外,Mobileye与大众汽车围绕多款高阶产品合作取得进展,Buzz车型自动驾驶版本将于IAA Mobility展示后按计划推进;本特勒集团也宣布推出搭载Mobileye Drive™系统的城市自动驾驶接驳车,进军美国共享出行市场。
原文链接
9月22日,Meta发布MobileLLM-R1系列小语言模型,参数量分别为1.4亿、3.6亿和9.5亿,专为移动设备等轻量级平台设计。该模型经过监督式微调(SFT),聚焦数学、编程(如Python、C++)及科学问题,预训练数据仅约2TB高质量token,总数据量不到5TB。在多项基准测试中,其性能超越使用36TB数据训练的Qwen 3-0.6B。例如,在MATH测试中,MobileLLM-R1 950M准确率是Olmo 1.24B的5倍,编程任务表现同样优异。模型已开源,采用Apache 2.0协议,可通过vLLM推理引擎运行,并在Hugging Face平台发布。
原文链接
2025年8月,QuestMobile报告显示,中国原生AI应用月活用户规模达2.77亿。豆包以6.6%的环比增速实现1.57亿月活,超越DeepSeek,位居原生AI App月活第一。腾讯元宝增速最快,达22.4%,位列TOP10第三,月活在1000万至1亿之间。此外,手机厂商AI助手用户规模达5.29亿,其中OPPO、小米、华为占比分别为70.9%、70.4%和56.8%。整体AI应用规模(含插件)达6.45亿,PC端用户规模为2.04亿。
原文链接
2025年底,旧金山生物技术初创公司Retro Biosciences计划启动首个人体临床试验,测试其抗衰老药物RTR242。该公司由奥特曼提供1.8亿美元种子轮融资,目标是延长人类寿命10年。RTR242通过重启细胞自噬机制,旨在清除与阿尔茨海默症和帕金森症相关的“细胞垃圾”。试验地点位于澳大利亚,首位受试者预计年底入组。此外,Retro还开发其他疗法,包括针对白血病的RTR890和中枢神经疾病的RTR888。公司正寻求10亿美元A轮融资,以推进其长寿研究。Retro团队背景强大,CEO贝茨-拉克鲁瓦曾创立被谷歌收购的OQO,联合创始人丁胜为清华药学院创始院长。
原文链接
2025年9月14日,英伟达在AI Infra Summit上发布全新GPU——NVIDIA Rubin CPX,专为处理百万token级别的代码生成和生成式视频任务设计。这款基于Rubin架构的GPU采用单片设计,内置NVFP4计算资源,提供高达30PFLOPS算力,配备128GB GDDR7内存,性能较A100显著提升。Rubin CPX可与Vera CPU和GPU协同工作,构成Vera Rubin NVL144 CPX平台,实现8EFLOPS AI算力和1.7PB/s内存带宽,较现有系统提升7.5倍。其应用场景包括复杂软件项目优化、高质量生成式视频等。英伟达预计Rubin CPX将于2026年底正式推出,并将获得完整AI软件栈支持。行业专家认为该产品将在代码生产力和影像创作领域带来突破。
原文链接
2025年9月10日,NVIDIA宣布推出下一代AI服务器“Vera Rubin NVL144 CPX”,单机架配备144颗GPU和36颗CPU,搭载1.7PB/s带宽的HBM4内存及100TB高速存储。其算力在NVFP4精度下达8 EFlops(每秒800亿亿次),较GB300 NVL72提升7.5倍。若需更高性能,可将两台服务器组合实现配置与算力翻倍。NVIDIA称,投入1亿美元即可带来50亿美元回报。Rubin GPU及相关系统预计2026年底推出,2027年升级为Rubin Ultra,2028年推出全新Feyman GPU,持续搭配Vera CPU。
原文链接
2025年9月10日,英伟达宣布推出专为长上下文工作负载设计的GPU芯片Rubin CPX,显著提升AI推理效率,特别是在编程和视频生成等需要超长上下文的应用场景。Rubin CPX基于下一代顶级算力芯片Rubin开发,预计2026年底出货。新芯片将集成在NVIDIA Vera Rubin NVL144 CPX服务器中,性能较当前旗舰GB300 NVL72提升最多6.5倍,提供8exaFLOPs算力、100TB高速内存和1.7PB/s带宽。英伟达表示,部署价值1亿美元的新芯片可为客户带来50亿美元收入。Rubin CPX针对数百万tokens级别的长上下文优化,配备30petaFLOPs算力和128GB GDDR7内存,分离上下文与生成阶段计算负载,大幅提升资源利用率。
原文链接
英伟达于9月10日发布首款专为大规模上下文AI设计的CUDA GPU——Rubin CPX。该GPU具备128GB GDDR7显存,支持3倍attention能力,并通过4-bit NVFP4精度提供30 petaflops计算性能,适用于大规模编码和生成视频等高需求任务。新产品将作为Vera Rubin平台的一部分,全机架版本NVL144 CPX可达8 exaflops AI性能。英伟达CEO黄仁勋称其革新了大规模上下文AI处理,并预计1亿美元投资可带来50亿美元收益。Rubin CPX将支持英伟达完整软件栈,包括多模态模型Nemotron系列,预计2026年底正式推出。
原文链接
9月8日,新兴AI云服务企业Nebius宣布与微软达成一份价值174亿美元的云GPU租赁协议,合同期至2031年,总额可扩展至194亿美元。根据协议,Nebius将从今年晚些时候起,分期通过其位于美国新泽西州Vineland的新建数据中心为微软提供专用GPU基础设施,每期协议时长5年。微软在自建数据中心的同时,外购算力是其AI战略的重要组成部分。此前,微软曾放弃与CoreWeave价值120亿美元的合作,这部分算力被OpenAI购入。
原文链接
2025年9月6日,字节发布机器人全能大模型Robix,由李航博士带队研发。Robix采用视觉-语言单模型设计,整合推理、任务规划和自然语言交互功能,解决传统机器人模块间信息代沟问题。其核心基于思维链推理和三阶段训练策略(持续预训练、监督微调、强化学习),支持3D空间理解与复杂任务执行。测试显示,Robix在多项空间理解任务中表现优于GPT-4o、Gemini 2.5 Pro等模型,真实环境评估中平均任务进度达92.5%。李航曾担任华为诺亚方舟实验室主任,现以返聘顾问形式继续参与字节AI项目。相关技术报告与论文已公开。
原文链接
加载更多
暂无内容