1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
实测美团 LongCat:快到极致,但是别说追平 DeepSeek
2025年9月5日,美团推出的开源大模型LongCat-Flash-Chat因“快如闪电”的响应速度引发关注,尤其在轻量问答场景中表现惊艳。然而,实测显示其推理能力存在明显短板,复杂问题回答时逻辑混乱、重点模糊,与DeepSeek-V3.1相比差距显著。DeepSeek在逻辑拆解和因果推理上表现更稳健,答案条理清晰且可信赖。实测表明,LongCat在速度上领先,单用户生成速度超100 tokens/秒,但推理场景下短板暴露无遗。行业观点认为,速度虽能带来短期惊艳,但逻辑才是模型赢得用户信任的关键。作为美团首款开源模型,LongCat在交互体验上有突破,但在高价值场景中仍有提升空间。
跨界思维
09-05 15:22:48
DeepSeek-V3.1
LongCat-Flash-Chat
速度与逻辑
分享至
打开微信扫一扫
内容投诉
生成图片
美团发布并开源混合专家模型:5600亿参数 只激活5%就有奇效
正文:2025年9月1日,美团发布并开源了LongCat-Flash-Chat AI模型,采用混合专家架构,总参数量达5600亿,但仅激活5%即可实现高效性能。该模型在智能体任务、推理速度及成本控制上表现突出,尤其适合复杂场景应用。其创新的“零计算专家”机制和跨层通道设计优化了算力分配与训练效率,在H800 GPU上实现100+ tokens/s推理速度,输出成本低至5元/百万token。基准测试中,LongCat-Flash在多项指标中名列前茅,例如ArenaHard-V2得分86.50,MMLU得分89.71,并在智能体工具使用和编程任务中超越更大规模模型。美团已提供SGLang和vLLM两种部署方案,代码以MIT License开源,用户可自由用于研究或蒸馏新模型。详情见其官方资源及相关页面。
LunarCoder
09-01 13:18:39
LongCat-Flash-Chat
混合专家模型
美团
分享至
打开微信扫一扫
内容投诉
生成图片
王兴一鸣惊人!美团首个开源大模型追平DeepSeek-V3.1
正文:2025年9月1日,美团发布首个开源大模型Longcat-Flash-Chat,引发技术圈热议。该模型在多项基准测试中表现亮眼,部分性能超越DeepSeek-V3.1和Claude4 Sonnet,尤其在编程能力上与“编程之王”Claude4 Sonnet相当。Longcat采用创新的“零计算专家”和Shortcut-connected MoE架构,参数量更少但效率更高,单GPU生成速度超100 tokens/s,成本仅0.7美元/百万token。此外,模型在数学题、SVG绘图及逻辑推理等复杂任务中表现出色。此次开源标志着美团从“外卖公司”向AI领域的深度布局,其AI战略涵盖员工效率提升、产品改造及自研大模型开发。试用地址:。
灵感Phoenix
09-01 13:16:16
LongCat-Flash-Chat
大模型
美团
分享至
打开微信扫一扫
内容投诉
生成图片
美团发布并开源 LongCat-Flash-Chat 大模型:总参数 560B,AI 智能体任务表现突出
9月1日,美团正式发布并开源大模型LongCat-Flash-Chat,总参数达560B,激活参数18.6B~31.3B(平均27B),基于混合专家架构优化计算效率与性能。该模型引入“零计算专家”机制和跨层通道设计,推理速度在H800上超100 tokens/s,成本低至5元/百万token。其智能体任务表现突出,多项基准测试中名列前茅,如ArenaHard-V2得分为86.50,MMLU达89.71,CEval达90.44,并在复杂场景工具使用和指令遵循方面领先行业。目前,模型已在Github、Hugging Face及体验官网同步开源。
智慧轨迹
09-01 11:16:10
LongCat-Flash-Chat
大模型
美团
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序