1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
中国企业调用大模型日均超10万亿Tokens
2025年9月1日,沙利文发布的《中国GenAI市场洞察:企业级大模型调用全景研究,2025》显示,中国企业级大模型调用量呈爆发式增长,2025年上半年日均调用量超10万亿Tokens,较2024年底增长363%。其中,阿里通义以17.7%的占比位居第一。报告预测,未来超80%的企业将采用开源大模型,推动企业级市场新一轮增长。这一数据凸显了中国在大模型应用领域的快速发展及市场竞争的激烈态势。
智慧轨迹
09-01 12:17:48
tokens
中国企业
大模型
分享至
打开微信扫一扫
内容投诉
生成图片
AI应用开发商怨声载道:部署成本水涨船高 钱都给微软他们赚走了
2025年8月21日,财联社报道,企业部署AI成本在2025年突然停滞,引发行业不满。尽管2024年OpenAI、Anthropic等曾大幅下调API调用价格超90%,但今年初起,Anthropic涨价,OpenAI费用未降,推理与AI代理功能消耗更多算力,导致企业账单激增。例如,Intuit的微软Azure账单从去年2000万美元飙升至今年预计3000万美元,而收入增长未能跟上。与此同时,上游厂商如微软Azure和OpenAI获利显著,前者季度营收增长39%,后者通过API销售实现盈利。开发者抱怨token价格居高不下,担心形成‘寡头垄断’。独立开发者也因工具涨价倍感压力。Anthropic和OpenAI回应称其模型带来更高业务价值,但客户仍需适应高昂成本。
智能涌动
08-21 17:40:02
AI成本
token价格
微软Azure
分享至
打开微信扫一扫
内容投诉
生成图片
国家数据局:我国日均 Token 消耗量突破 30 万亿,一年半时间增长 300 多倍
国务院新闻办公室今日举行发布会,国家数据局局长刘烈宏透露,截至2024年6月底,我国日均Token消耗量突破30万亿,较2024年初增长300多倍,展现人工智能应用规模的快速增长。同时,我国已建成超3.5万个高质量数据集,总量超400PB,累计交易额近40亿元人民币。北京数交所高质量数据集占比从去年10%提升至近80%。此外,中文数据在大模型训练中占比普遍超60%,部分达80%,对提升模型性能作用显著。
电子诗篇
08-14 20:02:02
Token消耗量
人工智能应用
高质量数据集
分享至
打开微信扫一扫
内容投诉
生成图片
Anthropic Claude Sonnet 4 上下文 token 数提升至 100 万 ,可同时处理数十篇长篇研究论文
8月13日,Anthropic宣布其Claude Sonnet 4模型上下文token数提升至100万,是此前上限的五倍。新功能支持处理超7.5万行代码或数十篇长篇研究论文,适用于大规模代码分析、海量文档整合及多步骤工作流等场景。该功能已向Tier 4及以上客户开放测试,并可通过亚马逊Bedrock使用,谷歌云Vertex AI支持即将推出。超过20万token的提示词定价翻倍,但通过缓存和批量处理可降低50%成本。此外,Anthropic近期还推出了Claude的记忆功能和Claude Opus 4.1版本,进一步提升实用性。
代码编织者Nexus
08-13 08:30:20
Anthropic Claude Sonnet 4
上下文 token
长篇研究论文
分享至
打开微信扫一扫
内容投诉
生成图片
1.5B刷新数学代码SOTA!快手&清华精细化Token管理,LLM推理能力飙升
1.5B小模型刷新数学代码SOTA!快手&清华推出Archer方法,精细化Token管理大幅提升LLM推理能力 快手与清华大学团队提出了一种名为Archer的新方法,用仅1.5B参数的小模型在多个数学和代码推理基准上超越同量级SOTA模型。其核心在于对模型学习过程的精细化管理:稳定知识记忆,...
新智燎原
08-01 08:51:42
Archer方法
Token管理
推理能力
分享至
打开微信扫一扫
内容投诉
生成图片
在海外构建一个能够立即商业化的AI 应用,至少需要多少IT成本?
正文:2025年7月,GMI Cloud在WAIC 2025期间发布“AI应用构建成本计算器”,助力开发者量化海外AI商业化成本。该工具基于Token消耗与吞吐量,实时对比15家供应商性价比,优化总拥有成本(TCO)。数据显示,使用GMI Cloud方案可降低IT成本40%,缩短回本周期至行业平均的1/3。例如,处理900万字任务仅需15小时,远快于某些服务商的83小时,且费用更低。其底层依托英伟达H200、B200芯片,实现硬件到软件的全栈优化,支持快速部署与扩展。用户可通过官网体验工具并了解更多详情。
智能视野
07-27 18:01:19
AI应用构建成本
GMI Cloud
Token消耗
分享至
打开微信扫一扫
内容投诉
生成图片
突破单token预测局限!南洋理工首次将多token预测引入微调
突破单token预测局限!南洋理工首次将多token预测引入微调 告别Next-token预测,南洋理工大学提出了一项新技术——概念感知微调(CAFT),首次在模型微调阶段实现多token预测,让AI能够像人类一样理解完整概念。 当前主流大语言模型(LLM)依赖next-token predicti...
AI幻想空间站
07-24 19:12:52
CAFT
多token预测
概念感知微调
分享至
打开微信扫一扫
内容投诉
生成图片
火山引擎tokens日均调用量已达16.4万亿
今日,在火山引擎举办的FORCE原动力大会上,火山引擎总裁谭待透露,截至今年5月底,火山引擎tokens的日均调用量已达到16.4万亿,较发布初期增长了137倍。这一数据展示了火山引擎在技术创新和业务扩展上的强劲势头。tokens作为其核心技术之一,广泛应用于多领域场景,此次披露的数据进一步体现了其技术实力及市场影响力。
元界筑梦师
06-11 11:11:09
tokens
日均调用量
火山引擎
分享至
打开微信扫一扫
内容投诉
生成图片
Qwen&清华团队颠覆常识:大模型强化学习仅用20%关键token,比用全部token训练还好
标题:Qwen&清华团队发现:大模型强化学习仅用20%高熵token效果更优 近期,Qwen&清华LeapLab团队在arXiv发布了一项突破性研究成果。他们在强化学习训练大模型推理能力时发现,仅使用20%的高熵token即可实现最佳效果,甚至优于使用全部token的训练方式。这...
跨界思维
06-06 17:35:06
二八法则
大模型强化学习
高熵token
分享至
打开微信扫一扫
内容投诉
生成图片
黄仁勋担心中国市场觉醒
标题:黄仁勋担心中国市场觉醒 正文:昨天(2025年5月7日),一年一度的米尔肯全球会议在洛杉矶举行,这是一个汇聚政要、企业家、投资者、学者等顶尖头脑的思想盛会。今年的主题是“推动一个繁荣的世界”,重点关注人工智能、可再生能源等领域。 英伟达CEO黄仁勋在会上强调,AI正引发一场全面的生产体系和...
AI创意引擎
05-08 14:31:13
AI工厂
token
技术主导权
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序