近日,由全球华人科研团队开发的时序大模型Time-MoE取得重大突破,该模型首次将时间序列预训练大模型的参数规模扩大至十亿级别,预训练数据达到3000亿个时间点。Time-MoE采用创新的混合专家架构(MoE),显著提升了预测精度并降低了计算成本。团队还发布了涵盖九个领域的Time-300B数据集,成为当前时序领域最大的公开数据集。实验结果显示,Time-MoE在零样本和全样本预测中均表现优异,MSE分别降低约20%和24%,并在能耗和训练速度上具有明显优势。此成果为能源管理、金融预测、电商销量等多个关键领域的应用提供了强大的工具。 摘要中保留了关键信息,包括时间、地点、事件等核心要素,并符合新闻三要素。
原文链接
本文链接:https://kx.umi6.com/article/7772.html
转载请注明文章出处
相关推荐
换一换
数字技术工人已到岗!时序大模型+Agent已掌握了工厂生产管控技术
2025-08-27 15:04:17
Meta 发布 Llama 4 系列 AI 模型,引入“混合专家架构”提升效率
2025-04-06 05:44:43
全球首次:时序大模型突破十亿参数,华人团队 Time-MoE 预训练数据达 3000 亿个时间点
2024-10-23 23:50:47
智谱 GLM-4.5 系列 AI 模型踪迹曝光,预估采用新混合专家架构
2025-07-25 14:26:13
过去一年,中国AI如何改变全球开源格局?
2026-01-22 13:56:28
英特尔CEO陈立武:AI需求强劲 对未能完全满足市场需求感到遗憾
2026-01-23 11:53:08
马斯克:美国AI发展遭电力卡脖 中国电力增长十分惊人
2026-01-23 18:08:20
LeCun创业0产品估值247亿,回应谢赛宁入伙
2026-01-23 17:04:25
全球首个AI美女演员诞生!星爵演员破大防怒喷
2026-01-21 23:30:59
OpenAI已建立人形机器人实验室 启动以来规模扩大四倍多
2026-01-22 21:11:56
NVIDIA黄仁勋:未来的电脑比现在强10亿倍
2026-01-21 23:29:50
中信证券:建议当前核心围绕先进封装和存储封装环节进行布局
2026-01-23 08:40:41
超600家上市公司预告2025年业绩 新兴产业增势亮眼
2026-01-22 06:40:59
595 文章
377461 浏览
24小时热文
更多
-
2026-01-23 19:11:03 -
2026-01-23 19:08:58 -
2026-01-23 18:11:40