
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月17日,上交所向摩尔线程发出科创板上市审核问询函。摩尔线程与中介机构中信证券、竞天公诚律师及安永会计师对问询问题逐项回复。回复显示,公司图形加速产品(如S3000、S50)复购率较高,AI智算产品复购率逐步提升,客户对新一代产品测试意愿强烈。截至回复日,公司预计订单金额约20亿元,其中AI智算业务收入预计在2025-2026年实现,智能SOC等业务收入预计2025年实现。目前洽谈的AI智算项目多为平湖系列板卡集群,已取得采购意向并完成部分交付与测试,订单可实现性较高。
原文链接
8月6日,摩尔线程宣布其MUSA架构成功适配llama.cpp,进一步融入全球AI生态圈。llama.cpp是一个纯C/C++实现的项目,旨在简化大语言模型推理,并在多种硬件环境下提供高性能支持。该工具大幅降低了大语言模型推理门槛,支持包括LLaMA、Mistral、Qwen等主流模型及多模态模型。摩尔线程的MTT S80/S3000/S4000 GPU用户可通过官方容器镜像使用llama.cpp。此外,今年4月MUSA SDK升级至4.0.1版本,扩展了对Intel处理器+Ubuntu系统及海光处理器+麒麟系统的支持。
原文链接
国产GPU跑满血DeepSeek,已实现100 tokens/s!
当下,谁是运行满血DeepSeek最快的芯片?答案令人意外——不是英伟达,而是一家国产GPU。它的速度已突破100 tokens/s,远超国外GPU的50 tokens/s和国内其他产品的15 tokens/s,性能提升了一个数量级...
原文链接
2025年7月,摩尔线程与沐曦集成电路的科创板IPO申请获受理,分别拟募资80亿元和39.04亿元,或成国产高端GPU上市关键窗口期的起点。自2019年美国对中国半导体禁令以来,国产GPU企业迅速崛起。摩尔线程由前英伟达中国高管张建中创立,成立后快速吸引资本与人才,估值达246亿元;沐曦由AMD老将陈维良创立,聚焦高性能计算市场,产品已实现量产。两家公司虽路径不同,但均受益于2024年底国产大模型公司DeepSeek的爆火,带动推理市场需求激增。然而,高额研发成本使两家企业仍处亏损状态,未来将依赖性价比优势争夺市场机遇。
原文链接
2025年上半年,国产GPU迎来历史性时刻,摩尔线程与沐曦股份同日获科创板IPO受理,标志着国产GPU企业迈入新阶段。摩尔线程布局数据中心与消费级市场,对标英伟达,推出全功能GPU架构MUSA及多款显卡和智算解决方案。沐曦则聚焦数据中心,主打AI训练与推理,自主研发GPU IP和指令集。两家公司研发投入巨大,近三年研发占比分别达626.03%和282.11%,营收增长迅猛,毛利率逐步提升。尽管面临软件生态薄弱、收入来源单一等挑战,但其国产替代潜力受到资本市场关注。随着多家国产GPU企业密集冲刺IPO,谁将赢得‘国产GPU第一股’引发热议。
原文链接
2025年6月27日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B,总参数量达800亿,激活参数为130亿。同日,摩尔线程率先完成该模型在全功能GPU的深度适配与高效支持。测试结果显示,Hunyuan-A13B在多个代码和数学任务中取得最高分数,并在多项任务中达到与Qwen3-A22B模型相当的水平。摩尔线程持续支持开源社区,此前已实现对多个大模型的Day-0支持,助力开发者基于国产GPU进行AI应用创新。
原文链接
国产GPU企业摩尔线程已完成上市辅导,冲刺IPO。该公司由前英伟达高管张建中创立,专注于全功能GPU研发,致力于AI计算支持与数智化转型。自2020年成立以来,摩尔线程已获6轮融资,总金额超45亿元,投资方包括红杉中国、腾讯、字节等。其核心产品MTT S4000在大模型训推方面表现优异,并推出多款显卡满足不同需求。近期发布的MTT X300性能升级,MTT S80则成为国产游戏显卡标杆。与摩尔线程同期冲刺IPO的还有燧原科技和壁仞科技,后者于今年3月获新一轮融资。
原文链接
5月22日消息,摩尔线程与国内AI算力平台AutoDL达成深度合作,推出面向个人开发者的‘摩尔线程专区’,首次将国产GPU算力开放至AI开发一线。该合作依托摩尔线程夸娥(KUAE)智算集群的全功能GPU算力,结合AutoDL广泛的用户基础,为开发者提供高性价比的国产算力解决方案。专区支持模型适配、一键部署及生态共建,首批上线模型涵盖计算机视觉、自然语言处理等领域。AutoDL是国内最大C端AI算力租用平台之一,此次合作旨在降低AI创新门槛,加速国产GPU在AIGC、大模型推理等场景的应用,推动国产算力普惠化发展。
原文链接
5月8日消息,摩尔线程自主研发的训推一体计算卡MTT S4000通过中国信通院AI芯片和大模型适配验证。此次验证中,MTT S4000与DeepSeek-R1 671B大模型在推理场景下表现达标,获颁检测证书。MTT S4000基于摩尔线程全功能GPU架构设计,支持多种计算精度并配备48GB显存,具备多卡互联及千卡集群能力,适用于大模型训练、推理及复杂场景应用。此外,摩尔线程推出的MCCX DeepSeek大模型一体机,整合了MTT S4000、优化的推理引擎和软件栈,支持不同规模DeepSeek模型部署。相关优化性适配验证结果将后续公布。
原文链接
3月17日,摩尔线程宣布开源两大AI框架MT-MegatronLM与MT-TransformerEngine。MT-MegatronLM支持dense、多模态及MoE模型的高效混合并行训练,而MT-TransformerEngine专注于Transformer模型的训练与推理优化。两大框架采用FP8混合训练策略和高性能算子库muDNN与MCCL,显著提升训练效率与稳定性。在全功能GPU集群上,Llama3 8B模型训练的MFU可达90%以上。此外,框架具备异常恢复机制、完整的生态兼容性及多种优化策略,如Dual Pipe并行策略和异步checkpoint。摩尔线程还计划引入更多功能,持续优化框架性能。开源地址已公布,助力开发者构建更强大的AI技术栈。
原文链接
加载更多

暂无内容