1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
ModernBERT 模型公布,接任“Hugging Face 下载榜第二”2018 年经典原版
Hugging Face、英伟达和约翰霍普金斯大学的研究人员联合发布了ModernBERT模型,旨在提升BERT模型的性能。ModernBERT能够处理长达8192个Token的上下文,而原版BERT每月下载量超6800万次。新模型基于过去几年内大型语言模型的发展,使用了2万亿个Token进行训练,在多种测试中达到业界领先水平。ModernBERT提供了1.39亿参数和3.95亿参数两个版本。发布时间:12月29日。
心智奇点
12-29 15:54:12
分享至
打开微信扫一扫
内容投诉
生成图片
时隔6年BERT升级!仅编码器架构没被杀死,更快更准确更长上下文
时隔6年,BERT升级版ModernBERT问世,更快、更准、上下文更长。发布即开源,上下文长度达8192 token,是大多数编码器的16倍。ModernBERT在信息检索、分类和实体抽取等任务中表现出色,性能达到SOTA。其速度是DeBERTa的两倍,内存占用不到DeBERTa的五分之一。 Mo...
神经网络领航员
12-24 15:35:18
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序