
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
9月22日,美团LongCat团队发布全新高效推理模型LongCat-Flash-Thinking。该模型融合了「深度思考+工具调用」与「非形式化+形式化」推理能力,能够更高效地完成复杂任务。目前,模型已在HuggingFace和Github全面开源,供开发者自由使用。这一发布为AI推理领域提供了新工具,引发广泛关注。
原文链接
小而美的生活秘书!美团Agent落地生活服务
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI
最新火爆的AI应用是什么?一款只需动动嘴就能点外卖的智能助手——美团的“小美”。它通过自然语言对话,无需复杂操作,直接完成点外卖、找餐厅、订座等任务,让生活服务变得简单高效。
小美被称为...
原文链接
9月10日,阿里高德发布“高德扫街榜”,主打基于AI的真实用户行为数据榜单,并承诺永不商业化,冲击美团大众点评的核心业务。同日,美团宣布重启品质外卖服务,并推出AI生活助手“小美”,强化本地生活服务能力。两大巨头围绕本地生活服务展开激烈竞争,从外卖、到店业务延伸至AI技术比拼。高德通过“行为+信用”双重校验机制提升榜单可信度,而美团则以AI工具优化用户体验。双方在AI领域的布局表明,未来竞争将聚焦于技术创新与落地应用,而非单纯的价格战。
原文链接
9月12日,美团推出生活服务型AI“小美”,以独立App形式进军C端Agent市场。小美通过自然语言交互,提供外卖下单、餐厅推荐、订座导航等本地生活服务,覆盖“吃、住、行、游、娱、购、医”全链条需求。其背后依托美团LongCat大模型,采用“总调度+执行专家”技术架构,结合实时数据实现高效闭环服务。目前,小美已接入美团外卖、旅游、酒店预订等核心业务,并计划扩展至打车、机票订购等功能。与字节、腾讯、阿里等大厂的布局不同,美团聚焦“本地生活”高频刚需场景,专注交易闭环,力求解决具体问题。未来,生活Agent市场或将呈现“一个主要助手+N个细分工具”的格局,竞争与机遇并存。
原文链接
《科创板日报》12日讯,美团首款AI Agent产品“小美”App即将开展公测。这款应用定位为“小而美的AI生活小秘书”,搭载美团自研模型LongCat-Flash-Chat,通过自然语言交互和内部接口调用,可实现外卖下单、餐厅推荐、订座导航等本地生活服务功能,为用户提供便捷的生活体验。(记者 徐赐豪)
原文链接
9月11日,深圳机场联合美团推出国内首家机场智能送餐服务。旅客可通过美团App下单,由“小黄蜂”智能送餐机器人将餐品配送至卫星厅任意登机口,覆盖星巴克、肯德基、喜茶等11家连锁品牌门店。这项服务不仅免去旅客奔波,还首次将机场场景纳入美团配送范围,同时也是“小黄蜂”机器人在大型交通场站的首秀。机器人具备自主导航能力,可上电梯、过闸机,技术先进。未来还将引入更多品牌,提升旅客体验。
原文链接
9月5日,美团宣布正在内测一项聚焦本地生活服务的AI搜索功能。该功能基于用户行为与需求进行智能匹配,旨在提升服务推荐精准度和用户体验效率,是美团“AI+本地生活”战略的重要举措。此外,美团近期发布了LongCat-Flash-Chat模型并开源,采用创新混合专家模型架构,总参数560B,激活参数平均27B,在性能和计算效率上实现双重优化,尤其在智能体任务中表现突出。这一系列动作展示了美团在人工智能领域的持续深耕,为用户提供更智能化的服务体验。
原文链接
9月5日,《科创板日报》记者实测美团、百度新AI产品,对比其性能表现。美团发布5600亿参数模型LongCat,尚未推出独立应用,支持联网搜索功能,在数学题和文本创作任务中表现出色,响应速度优于DeepSeek。百度推出更名升级的“梯子AI”,定位智能搜索工具,不仅能解答复杂问题并提供参考资料,还新增追剧板块,但其“免费追剧”服务或存法律风险。美团2025年Q2研发开支达63亿元,同比增长17.2%,用于强化AI布局;百度则持续加码AI,正在开发下一代文心一言。与此同时,DeepSeek被传正研发更高阶AI模型,或与美国巨头竞争。
原文链接
9月1日,美团发布并开源其首个大模型LongCat-Flash(龙猫),参数规模达560B,采用混合专家(MoE)架构,推理速度超100tps,成本低至5元/百万token。训练未使用英伟达GPU,而是“数万个加速卡”。美团CEO王兴强调AI战略重要性,每年投入超百亿元,用于提升员工效率、优化产品服务及构建内部大模型。本地生活领域AI竞争加剧,饿了么推出骑手AI助手“小饿”和商家智能入驻系统,抖音上线个性化推荐小程序“探饭”。专家指出,美团聚焦“全过程智能体”,赋能商家与内部效率提升,未来需补强算力、供应链及全球化能力,中东等市场或成出海突破口。
原文链接
正文:2025年9月1日,美团发布并开源了LongCat-Flash-Chat AI模型,采用混合专家架构,总参数量达5600亿,但仅激活5%即可实现高效性能。该模型在智能体任务、推理速度及成本控制上表现突出,尤其适合复杂场景应用。其创新的“零计算专家”机制和跨层通道设计优化了算力分配与训练效率,在H800 GPU上实现100+ tokens/s推理速度,输出成本低至5元/百万token。基准测试中,LongCat-Flash在多项指标中名列前茅,例如ArenaHard-V2得分86.50,MMLU得分89.71,并在智能体工具使用和编程任务中超越更大规模模型。美团已提供SGLang和vLLM两种部署方案,代码以MIT License开源,用户可自由用于研究或蒸馏新模型。详情见其官方资源及相关页面。
原文链接
加载更多

暂无内容