综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
Mistral AI于1月31日发布了Mistral-Small-24B-Instruct-2501模型,简称Small 3,拥有240亿参数。该模型具备先进推理能力、多语言支持及便捷应用集成,对标Meta的Llama 3.3 70B和阿里巴巴的Qwen 32B,据称在相同硬件上性能超三倍。Small 3针对本地部署优化,能在RTX 4090 GPU或配备32GB RAM的笔记本上流畅运行,支持JSON格式输出和函数调用,适合对话和特定任务。在HumanEval上达到84.8%准确率,在MMLU基准测试中超过81%。该模型已基于Apache 2.0许可证开源,适用于对话式AI、低延迟自动化、特定领域专业知识及本地推理。
原文链接
标题:豆包1.5 Pro重磅更新!7倍MoE性能杠杆,“不使用任何其他模型数据”
正文:
春节前,字节推出了全新基础模型——Doubao-1.5-pro,具备“演技精湛”的真人级语音对话功能。该模型基于MoE架构,仅用较小激活参数就能达到世界一流模型性能,性能杠杆达7倍。数据生产体系高度自主,不依赖...
原文链接
加载更多
暂无内容