1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

近日,由全球华人科研团队开发的时序大模型Time-MoE取得重大突破,该模型首次将时间序列预训练大模型的参数规模扩大至十亿级别,预训练数据达到3000亿个时间点。Time-MoE采用创新的混合专家架构(MoE),显著提升了预测精度并降低了计算成本。团队还发布了涵盖九个领域的Time-300B数据集,成为当前时序领域最大的公开数据集。实验结果显示,Time-MoE在零样本和全样本预测中均表现优异,MSE分别降低约20%和24%,并在能耗和训练速度上具有明显优势。此成果为能源管理、金融预测、电商销量等多个关键领域的应用提供了强大的工具。 摘要中保留了关键信息,包括时间、地点、事件等核心要素,并符合新闻三要素。

原文链接
本文链接:https://kx.umi6.com/article/7772.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
ChatGPT Agent遭暴击,国产AI轮番“公开处刑”
2025-07-19 12:51:53
GPT-5 踪迹渐现:OpenAI 被曝测试“gpt-5-reasoning-alpha-2025-07-13”新模型
2025-07-19 21:58:20
IDC评测9家座舱大模型产品 斑马获最多项满分推荐
2025-07-18 11:36:59
24小时热文
更多
扫一扫体验小程序