综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
9月11日,在上海黄浦外滩举行的2025 Inclusion·外滩大会主论坛上,源码资本投资合伙人张宏江分享了对AI与算力发展的见解。他指出,大模型的“规模定律”依然有效,推理模型推动了新的增长曲线,“大语言模型通缩”进一步强化了这一趋势。他还提到,AI正驱动基础设施大规模扩张,如OpenAI和Musk相关项目,预计2025年美国科技公司AI资本开支将超3000亿美元。张宏江认为,模型和GPU算力将成为企业核心资产,智能体群交互将重塑经济结构,带来‘智能体经济’新时代。
原文链接
9月8日,中国科学院自动化研究所李国齐、徐波团队与沐曦MetaX合作,发布了我国首个类脑脉冲大模型“瞬悉1.0”(SpikingBrain-1.0)。该模型在国产千卡GPU算力平台上完成训练和推理,展示了非Transformer架构的可行性。其核心突破包括:极低数据量高效训练、推理效率数量级提升、适配国产GPU生态以及多尺度稀疏机制设计。SpikingBrain-1.0在超长序列任务中表现优异,适用于法律、医学文档分析等场景。研究团队开源了SpikingBrain-1.0-7B模型,并开放测试网址及相关技术报告,为新一代人工智能发展提供了新方向。
原文链接
摩根士丹利报告显示,AI基础设施建设仍处于早期阶段。随着AI生产力逐步落地,受益领域将持续扩大。研究显示,每10年会出现新的计算周期,上一周期传统软件的CPU算力达1万亿美元,而AI应用的GPU算力有望达到10万亿美元。目前AI资本支出已是云计算同期的10倍,且仅5%的渗透率表明未来潜力巨大。在此背景下,基础设施相关股票如半导体、电力、冷却系统及数据中心设备等将继续创造价值。《科创板日报》8日讯。
原文链接
GPU算力云企业Lambda完成4.8亿美元D轮融资,总融资达8.63亿美元,估值超24亿美元。此轮融资由英伟达及多家科技公司参与。Lambda成立于2012年,提供AI模型训练和推理的基础设施与云服务。Lambda推出了一键式GPU集群,并利用其25000块GPU支持开源模型DeepSeek-R1,大幅增加了对英伟达H200芯片的需求。此外,Lambda正将英伟达Blackwell B200芯片部署至云端,并计划推出配备8张H100的Scalar Server。Lambda在资本市场的热度不减,2024年风险投资增长显著,其D轮融资额已超过2018年全年该行业的融资总额。
原文链接
加载更多
暂无内容