近日,由全球华人科研团队开发的时序大模型Time-MoE取得重大突破,该模型首次将时间序列预训练大模型的参数规模扩大至十亿级别,预训练数据达到3000亿个时间点。Time-MoE采用创新的混合专家架构(MoE),显著提升了预测精度并降低了计算成本。团队还发布了涵盖九个领域的Time-300B数据集,成为当前时序领域最大的公开数据集。实验结果显示,Time-MoE在零样本和全样本预测中均表现优异,MSE分别降低约20%和24%,并在能耗和训练速度上具有明显优势。此成果为能源管理、金融预测、电商销量等多个关键领域的应用提供了强大的工具。 摘要中保留了关键信息,包括时间、地点、事件等核心要素,并符合新闻三要素。
原文链接
本文链接:https://kx.umi6.com/article/7772.html
转载请注明文章出处
相关推荐
.png)
换一换
智谱 GLM-4.5 系列 AI 模型踪迹曝光,预估采用新混合专家架构
2025-07-25 14:26:13
数字技术工人已到岗!时序大模型+Agent已掌握了工厂生产管控技术
2025-08-27 15:04:17
全球首次:时序大模型突破十亿参数,华人团队 Time-MoE 预训练数据达 3000 亿个时间点
2024-10-23 23:50:47
Meta 发布 Llama 4 系列 AI 模型,引入“混合专家架构”提升效率
2025-04-06 05:44:43
高盛:由于美联储预期降息 预计到2026年中期标普500指数将上涨6%
2025-09-08 15:00:28
阿联酋推出低成本AI推理模型 宣称“性价比”超同行20倍
2025-09-09 22:23:30
开放全栈!超越π0,具身智能基础大模型迎来真·开源,开发者狂喜
2025-09-08 13:58:15
风起“具身智能”,2025科技创变者大会锚定产业化新征程
2025-09-09 16:17:19
微软大手笔锁定 174 亿美元外部 AI GPU 云算力,Nebius 负责供应
2025-09-09 13:13:41
Databricks融资10亿美元 估值超过1000亿美元
2025-09-08 22:04:30
韩国邮政拟全面引入人工智能技术
2025-09-09 13:18:11
AirPods Pro3,让你不戴手表也能“运动”了
2025-09-10 04:26:05
百度发布文心大模型 X1.1 深度思考模型,整体表现超越 DeepSeek R1
2025-09-09 13:14:51
449 文章
155014 浏览
- 发自 凹非寺量子位 | 公众号 QbitAI 奥特曼点名表扬了两个波兰人。 没有他们,OpenAI就不是今天的样子。 他们是OpenAI首席科学家Jakub Pachocki以及头衔为“Technical Fellow”的Szymon Sidor。 △左:Jakub Pachocki,右:Szymon Sidor 两人不仅是波兰老乡,而且是高中同学,读博时分别选择了计算机科学和机器人,后来又在OpenAI重聚。 在ChatGPT风靡全球、每天服务数亿用户的今天,奥特曼感慨大多数人永远不会想到背
- 中国气象局推动 AI 天气预报模型创新融合应用,伏羲、璞云、风乌、风清、盘古等入选
- OpenAI内部大重组
- 马斯克“金色擎天柱”首曝,一双“真人手”刷屏
- AI将重塑全球能源市场!高盛:到2030年电力需求将飙升165%
阅读更多
24小时热文
更多

-
2025-09-10 04:26:05
-
2025-09-10 01:24:36
-
2025-09-10 00:24:21