综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年9月底,豆包大模型日均Tokens调用量突破30万亿,较5月底增长超80%。火山引擎总裁谭待在武汉举行的FORCE LINK AI创新巡展上透露了这一数据。此外,2025年上半年,火山引擎在中国公有云大模型服务市场中占据49.2%的份额,显示其在企业市场的强大竞争力。(记者 张洋洋)
原文链接
9月19日,IDC发布《中国大模型公有云服务市场分析,2025H1》报告。数据显示,2025年上半年中国公有云大模型调用量达536.7万亿Tokens,较2024年增长近400%。火山引擎以49.2%市场份额领跑,阿里云和百度智能云分列二、三位。报告指出,市场正从模型训练转向推理服务,多模态与Agent应用成增长驱动力。行业经历两个关键拐点:2024年7月豆包大模型降本推动增长超160%,2025年2月DeepSeek-R1爆红加速向推理时代转型。Token作为AI应用核心标尺,反映真实需求,具备指数级增长潜力。火山引擎凭借战略、技术和规模优势,已占据主导地位,预示其将在未来AI应用爆发中扮演重要角色。
原文链接
2025年10月,谷歌被曝每月处理Tokens用量达1.3千万亿,创行业新高。据谷歌内部统计,这一数字较5月的480万亿和7月的980万亿显著增长。若以中文字符换算,相当于每月对话内容可填满近30亿本《红楼梦》。此外,超过1300万开发者使用谷歌AI模型,Gemini生成2.3亿视频和130亿图像,65%客户已采用其AI产品。对比微软,其季度峰值为50万亿Tokens,远低于谷歌。Tokens消耗量不仅是技术实力指标,还反映商业价值与应用落地能力。行业普遍将日均10亿Tokens设为门槛,而谷歌已成为“千万亿级”标杆,引领竞争新格局。
原文链接
2025年10月,OpenAI曝光了30家Tokens消耗破万亿的“大金主”,涵盖初创公司和规模化企业。榜单包括多邻国、Shopify、Canva等知名企业,涉及语言学习、电商、设计等多个领域。其中,多邻国凭借7亿用户和AI驱动的动态课程设计稳居前列;Canva通过AI降低设计门槛,成为Tokens消耗巨兽;Perplexity以复杂的AI搜索架构跻身高密度Tokens应用之列。这些公司因高频交互、任务复杂度高和平台化效应脱颖而出。此外,业内提出日均10亿Tokens消耗为新基准,被称为“Tokens独角兽”的标准,标志着AI商业化落地的关键指标。
原文链接
2025年9月19日,华为云在全联接大会2025上发布多项算力升级。CloudMatrix384超节点将从384卡升级至未来8192卡,结合MatrixLink网络技术,可支持百万卡集群,性能较H20提升3-4倍。首创EMS弹性内存存储服务,显著降低多轮对话时延。Tokens服务全面接入CloudMatrix384,按实际Token消耗计费,优化AI推理成本。华为云以“智算+通算”协同推进,覆盖千行百业需求,并为360纳米AI、中国科学院等提供高性能算力底座。此次升级进一步巩固华为云作为“算力黑土地”的行业地位。
原文链接
2025年9月,阿联酋穆罕默德·本·扎耶德人工智能大学(MBZUAI)与G42 AI合作推出全球最快开源AI模型K2 Think。该模型基于中国Qwen 2.5-32B打造,速度超2000 tokens/秒,在数学推理任务中表现优异。实测显示,其在IMO、AIME等复杂问题上均保持高速且答案准确。团队通过六大技术创新提升性能,包括监督微调、强化学习和硬件加速等。此外,K2 Think已发布技术报告,并开放体验地址供用户测试。
原文链接
2025年9月1日,沙利文发布的《中国GenAI市场洞察:企业级大模型调用全景研究,2025》显示,中国企业级大模型调用量呈爆发式增长,2025年上半年日均调用量超10万亿Tokens,较2024年底增长363%。其中,阿里通义以17.7%的占比位居第一。报告预测,未来超80%的企业将采用开源大模型,推动企业级市场新一轮增长。这一数据凸显了中国在大模型应用领域的快速发展及市场竞争的激烈态势。
原文链接
今日,在火山引擎举办的FORCE原动力大会上,火山引擎总裁谭待透露,截至今年5月底,火山引擎tokens的日均调用量已达到16.4万亿,较发布初期增长了137倍。这一数据展示了火山引擎在技术创新和业务扩展上的强劲势头。tokens作为其核心技术之一,广泛应用于多领域场景,此次披露的数据进一步体现了其技术实力及市场影响力。
原文链接
今日,《科创板日报》报道,字节跳动火山引擎在AI创新巡展杭州站上透露,豆包大模型的日均tokens使用量已超过12.7万亿,同比涨幅达106倍。这一数据展示了豆包大模型在实际应用中的快速增长趋势,体现了其在人工智能领域的广泛应用潜力。该消息由记者毛明江现场采访并发布,时间为11月17日。
原文链接
标题:90分钟生成10万Token,新框架实现3倍无损加速超长文本生成,支持DeepSeek-R1和QwQ!
生成10万Token的文本,传统自回归模型需近5小时,现仅需90分钟。最新研究提出名为TOKENSWIFT的框架,优化模型加载、KV缓存管理和Token生成策略,实现在保证生成质量和多样性前...
原文链接
加载更多
暂无内容