
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
今日,在火山引擎举办的FORCE原动力大会上,火山引擎总裁谭待透露,截至今年5月底,火山引擎tokens的日均调用量已达到16.4万亿,较发布初期增长了137倍。这一数据展示了火山引擎在技术创新和业务扩展上的强劲势头。tokens作为其核心技术之一,广泛应用于多领域场景,此次披露的数据进一步体现了其技术实力及市场影响力。
原文链接
今日,《科创板日报》报道,字节跳动火山引擎在AI创新巡展杭州站上透露,豆包大模型的日均tokens使用量已超过12.7万亿,同比涨幅达106倍。这一数据展示了豆包大模型在实际应用中的快速增长趋势,体现了其在人工智能领域的广泛应用潜力。该消息由记者毛明江现场采访并发布,时间为11月17日。
原文链接
标题:90分钟生成10万Token,新框架实现3倍无损加速超长文本生成,支持DeepSeek-R1和QwQ!
生成10万Token的文本,传统自回归模型需近5小时,现仅需90分钟。最新研究提出名为TOKENSWIFT的框架,优化模型加载、KV缓存管理和Token生成策略,实现在保证生成质量和多样性前...
原文链接
腾讯AI Lab与香港中文大学合作,提出“无监督前缀微调”(UPFT)技术,大幅提升大型语言模型推理效率。UPFT仅需关注模型输出的前8至32个词元,无需完整推理过程。研究显示,不同推理路径的初期步骤高度相似,UPFT利用这一特性,减少95%的tokens训练,显著降低时间和内存需求。UPFT在GSM8K、MATH500等多个推理基准测试中表现优异,尤其在复杂推理任务中效果显著。
原文链接
阿里云于2月9日宣布百炼平台全面上线DeepSeek-V3、DeepSeek-R1等6款全尺寸模型。DeepSeek-V3和DeepSeek-R1满血版各提供100万免费tokens,蒸馏版仅需1元即可获得高达200万tokens。此外,最小尺寸的DeepSeek-R1-Distill-Qwen-1.5B限时免费。阿里云PAI已支持这些模型的云上一键部署,为企业和开发者提供定制化开发服务。
原文链接
美国Cerebras Systems公司与法国Mistral AI合作,开发出一款响应速度最快的开源AI助手Le Chat。Le Chat每秒可处理1100个tokens,接近GPT-4速度的10倍。该应用支持对话、搜索、文档分析及图像生成等功能,基础版免费,Pro版每月14.99美元。Mistral AI选择在下周巴黎举行的人工智能峰会前发布此应用,旨在展示欧洲AI的重要性。Cerebras Systems强调,快速响应在AI领域愈发重要,且其技术领先于OpenAI和DeepSeek。
原文链接
标题:AI时代不看独角兽,看10亿Tokens日均消耗
明敏 发自 凹非寺
量子位 | 公众号 QbitAI
创新公司在创立10年内估值超10亿美元被称为“独角兽”,它们是市场潜力无限的绩优股,引领技术创新与模式创新。在大模型时代,新的价值红线形成——日均10亿Tokens消耗量成为AI业务成功的基...
原文链接
标题:大模型商用格局雏形初现:Tokens用量决高下,火山引擎问鼎2024
大模型应用落地元年,关注哪些业务?答案在于Tokens使用量。2024下半年,国内大模型商用落地日均Tokens消耗量从1000亿增至10000亿,月复合增长率达45%。火山引擎表现尤为突出,其日均Tokens消耗量从5月的...
原文链接
截至今日,《科创板日报》报道,豆包大模型自发布以来7个月内,日均tokens使用量已突破4万亿,相比发布初期增长超过33倍。这一显著增长反映了该模型在自然语言处理领域的广泛应用及影响力提升。
原文链接
微软近日更新了其GraphRAG系统,新增了动态社区选择功能,改善了全局搜索的数据检索效率,同时将tokens成本降低了77%。GraphRAG是一种结合知识图谱和大型语言模型的新型RAG框架,旨在提升信息处理和问答能力。该系统通过构建知识图谱,从非结构化文本中提取结构化数据,使模型能更好地理解复杂信息。此次更新还引入了轻量级模型GPT-4o-mini来识别相关数据部分,进一步提高响应质量和效率。GraphRAG自2024年7月2日开源以来,在GitHub上已获得超过万次星标。最新版本0.4.0还包括增量索引和DRIFT模块,提高了知识图谱更新的效率和搜索的准确性。此次更新于2024年11月发布。
原文链接
加载更多

暂无内容