近日,由全球华人科研团队开发的时序大模型Time-MoE取得重大突破,该模型首次将时间序列预训练大模型的参数规模扩大至十亿级别,预训练数据达到3000亿个时间点。Time-MoE采用创新的混合专家架构(MoE),显著提升了预测精度并降低了计算成本。团队还发布了涵盖九个领域的Time-300B数据集,成为当前时序领域最大的公开数据集。实验结果显示,Time-MoE在零样本和全样本预测中均表现优异,MSE分别降低约20%和24%,并在能耗和训练速度上具有明显优势。此成果为能源管理、金融预测、电商销量等多个关键领域的应用提供了强大的工具。 摘要中保留了关键信息,包括时间、地点、事件等核心要素,并符合新闻三要素。
原文链接
本文链接:https://kx.umi6.com/article/7772.html
转载请注明文章出处
相关推荐
.png)
换一换
ChatGPT Agent遭暴击,国产AI轮番“公开处刑”
2025-07-19 12:51:53
GPT-5 踪迹渐现:OpenAI 被曝测试“gpt-5-reasoning-alpha-2025-07-13”新模型
2025-07-19 21:58:20
IDC评测9家座舱大模型产品 斑马获最多项满分推荐
2025-07-18 11:36:59
385 文章
45961 浏览
24小时热文
更多

-
2025-07-20 23:09:27
-
2025-07-20 22:09:17
-
2025-07-20 21:10:03