综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
12月27日,中国地震系统研发的人工智能地震实时监测系统(AIRES)通过专家论证。该系统融合人工智能与地震学算法,实现从波形输入到地震多参数产出的全流程自动化处理,并可无缝对接现有业务系统。示范运行显示,系统运行稳定,地震事件检测与人工目录匹配率达95.1%,分类准确率达94.7%。专家组认为其性能优异,核心技术与综合性能达国际先进水平,具备良好推广价值,将助力全球地震监测。
原文链接
2025年,AI行业在‘参数战争’之外,正悄然转向‘理解空间与物理法则’的新阶段。全球顶级厂商如OpenAI、Google DeepMind、微软等纷纷押注游戏领域,将其视为AI训练的最佳场景。腾讯等公司凭借技术和生态的双重优势,形成独特闭环,推动AI深度融入游戏玩法和制作流程。例如,《和平精英》推出AI战犬玩法,《王者荣耀》通过AI辅助降低新手门槛,同时AI工具优化了游戏开发中的渲染和动画制作。英伟达发布的NitroGen模型进一步证明,游戏训练的AI能力可迁移到现实世界。这一趋势表明,游戏不仅是娱乐媒介,更是AI进化的关键试验场,最终将为玩家带来更优质的游戏体验,并见证AI技术的持续突破。
原文链接
12月18日,在光合组织2025人工智能创新大会上,中科曙光正式发布scaleX万卡超集群。该系统由多个scaleX640超节点组成,具备5EFlops总算力和超过650TB的HBM总容量,专为万亿参数大模型及科学智能场景设计。这一发布标志着高性能计算领域的重要进展,展现了国产技术在人工智能与科学计算结合中的强大实力。(记者 陈俊清)
原文链接
AI Coding正成为人工智能商业化落地最快的赛道,据预测,其市场将从2025年的151.1亿美元增长至2034年的991亿美元。微软CEO纳德拉透露,微软30%的代码已由AI生成,预计到2030年这一比例将达到95%。中国市场同样潜力巨大,2024年前三季度软件业务收入达98281亿元,同比增长10.8%。中美在AI编程领域采取不同路线:美国以闭源性能取胜,如Anthropic推出的Claude Opus 4.5在SWE-Bench测试中突破80.9%,而中国则走开源+性价比路线,DeepSeek-V3.2等模型性能逼近国际顶尖水平。此外,生态标准竞争逐渐升温,美国厂商通过工具链和协议(如A2A、MCP)抢占先机,而中国厂商如阿里Qwen Code正加速追赶。未来关键在于B端标准制定权,参数提升虽快,但生态成熟需长期积累。
原文链接
11月20日,蚂蚁集团宣布开源万亿参数强化学习高性能权重交换框架Awex。该框架基于其自研技术,能够在数千卡GPU集群上实现5-10秒内完成万亿参数级别的权重同步。今年10月,蚂蚁集团已开源两款旗舰模型:非思考模型Ling-1T和思考模型Ring-1T,其中Ring-1T正是依托Awex框架开发。这一开源项目为大规模人工智能模型训练提供了重要技术支持,进一步推动了高性能计算与强化学习领域的发展。
原文链接
11月13日,在2025百度世界大会上,百度创始人李彦宏正式发布文心大模型5.0。该模型参数规模超2.4万亿,采用自回归统一架构和超稀疏混合专家架构,是新一代原生全模态大模型,支持理解与生成一体化。文心大模型5.0在全模态理解、创意写作、智能体规划、指令遵循等方面表现优异,尤其在语言、视觉理解、音频理解及视觉生成等测试中表现突出。百度现场演示了其在视频理解、视频生成(如《甄嬛传》片段二创)以及代码编写方面的能力,并表示模型持续学习进化中。目前,文心大模型5.0已上线百度千帆平台,用户可登录调用。
原文链接
10月14日,蚂蚁集团发布并开源了万亿参数思考模型Ring-1T,同时公开模型权重与训练配方。该模型在9月30日开源的预览版Ring-1T-preview基础上,进一步扩展了大规模可验证奖励强化学习(RLVR)训练,显著提升自然语言推理能力,并通过RLHF训练优化通用能力,在多项任务榜单中表现更加均衡。这一进展展示了蚂蚁在大模型领域的技术实力,也为行业提供了重要开源资源。
原文链接
10月14日,蚂蚁集团发布并开源万亿参数思考模型Ring-1T,综合能力逼近GPT-5。该模型在预览版基础上扩展强化学习训练,提升自然语言推理和通用能力,在多项任务中表现均衡。实验显示,Ring-1T成功解出IMO2025赛题中的四道题目,达银牌水平,并在医疗问答HealthBench测评中取得开源领域最佳成绩。为解决训推精度差异难题,蚂蚁采用自研‘棒冰’算法及高性能强化学习系统ASystem,确保训练稳定性。Ring-1T基于Ling 2.0架构,通过多阶段训练显著提升复杂推理与通用能力。用户可通过HuggingFace等平台下载模型或在线体验。目前,蚂蚁百灵大模型已发布18款模型,形成160亿至1万亿参数的产品矩阵,正式迈入2.0阶段。
原文链接
10月9日,蚂蚁百灵大模型团队发布万亿参数语言模型Ling-1T,这是继9月末开源Ring-1T-preview后的又一重磅动作。两款模型分别定位为非思考模型和思考模型,均达到万亿参数规模,接近人类大脑神经元数量。Ling-1T在编程、数学推理等领域表现优异,甚至超越DeepSeek等知名模型。蚂蚁选择完全开源,旨在推动AGI生态共建,降低开发者技术门槛。此外,蚂蚁已形成从160亿到1万亿参数的完整模型矩阵,并通过强化学习框架AReaL等技术赋能行业。蚂蚁集团明确“AI First”战略,持续探索智能上限,致力于铺设AI基础设施,吸引更多参与者共同迈向通用人工智能(AGI)。
原文链接
2025年10月11日,Thinking Machines发布论文《LoRA Without Regret》,探讨低秩适配(LoRA)在特定条件下媲美全参数微调(FullFT)的性能。研究表明,当LoRA应用于网络所有层(尤其是MLP/MoE层)且训练参数量充足时,其表现与FullFT相当。实验发现,LoRA的学习率通常是FullFT的10倍,大批量训练下容忍度较低。此外,在强化学习场景中,即使低秩LoRA也能达到FullFT的效果。研究基于Tulu3、OpenThoughts3及MATH等数据集,覆盖监督学习和策略梯度算法。此成果推动LoRA在定制化场景中的应用,同时为机器学习优化提供新视角。
原文链接
加载更多
暂无内容