1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
智谱运气是差一点点,视觉Token研究又和DeepSeek撞车了
10月22日,智谱与DeepSeek在视觉Token研究上再度‘撞车’。DeepSeek-OCR发布不到一天,智谱便开源了其视觉Token方案Glyph。两者均通过视觉方式破解LLM上下文冗长的难题。Glyph将文本渲染成图像式视觉Token,大幅压缩上下文长度,最高可实现3-4倍的Token压缩率,同时保持与主流模型相当的准确度。实验显示,Glyph在极端压缩下仍能应对百万级Token任务,并提升推理速度4倍、训练效率2倍。论文由清华大学团队完成,一作为博士生Jiale Cheng,通讯作者为黄民烈教授。视觉Token潜力巨大,DeepSeek-OCR用100个视觉Token即可达到97.3%准确率,单张A100 GPU日处理超20万页文档。未来,像素可能取代文本成为AI的基本信息单元。
Nebula
10-23 15:07:10
Glyph
上下文压缩
视觉Token
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek又发新模型,小而美玩出新高度
2025年10月20日,DeepSeek开源了3B参数的小模型DeepSeek-OCR,创新性地采用“光学压缩”技术处理文本信息。通过将文本转为图像,模型实现7-20倍的Token压缩率,同时保持OCR准确率高达97%以上。其核心组件包括负责图像特征提取的DeepEncoder和基于MoE设计的解码器DeepSeek-3B-MoE,能在高分辨率输入下控制内存开销,并支持多分辨率模式。团队利用3000万页多语言PDF数据训练模型,涵盖100种语言,还开发了“模型飞轮”机制优化少数语言识别能力。此外,DeepSeek-OCR具备深度解析功能,可提取复杂图像中的结构化数据,在STEM领域潜力巨大。研究还提出用光学压缩模拟人类遗忘机制,探索超长上下文处理的新方向。这一创新为VLM和LLM的发展开辟了新赛道。
星际Code流浪者
10-20 21:14:11
DeepSeek-OCR
Token压缩
光学压缩
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek 团队开源新模型 DeepSeek-OCR:少量视觉 token 完成海量文本压缩
10月20日,DeepSeek-AI团队发布论文《DeepSeek-OCR:Contexts Optical Compression》,提出利用视觉模态压缩长文本上下文的新方法,并开源模型DeepSeek-OCR。该模型由核心编码器DeepEncoder和解码器DeepSeek3B-MoE-A570M组成,参数量为3B。DeepEncoder在高分辨率输入下保持低计算激活,同时实现高压缩比。实验显示,在文本token数量不超过视觉token的10倍时,OCR精度可达97%;即使压缩比达20×,准确率仍约60%。在OmniDocBench测试中,使用100个视觉token即可超越GOT-OCR2.0,不到800个视觉token优于MinerU2.0。实际生产中,单块A100-40G显卡每天可生成超20万页训练数据。项目已在GitHub和Hugging Face开源。
Journeyman
10-20 17:10:44
DeepSeek-OCR
文本压缩
视觉 token
分享至
打开微信扫一扫
内容投诉
生成图片
豆包大模型日均Tokens调用量突破30万亿
2025年9月底,豆包大模型日均Tokens调用量突破30万亿,较5月底增长超80%。火山引擎总裁谭待在武汉举行的FORCE LINK AI创新巡展上透露了这一数据。此外,2025年上半年,火山引擎在中国公有云大模型服务市场中占据49.2%的份额,显示其在企业市场的强大竞争力。(记者 张洋洋)
智慧轨迹
10-16 17:04:39
Tokens调用量
火山引擎
豆包大模型
分享至
打开微信扫一扫
内容投诉
生成图片
Tokens 经济崛起:IDC 报告揭示 AI 应用新风向,火山引擎领跑市场
9月19日,IDC发布《中国大模型公有云服务市场分析,2025H1》报告。数据显示,2025年上半年中国公有云大模型调用量达536.7万亿Tokens,较2024年增长近400%。火山引擎以49.2%市场份额领跑,阿里云和百度智能云分列二、三位。报告指出,市场正从模型训练转向推理服务,多模态与Agent应用成增长驱动力。行业经历两个关键拐点:2024年7月豆包大模型降本推动增长超160%,2025年2月DeepSeek-R1爆红加速向推理时代转型。Token作为AI应用核心标尺,反映真实需求,具备指数级增长潜力。火山引擎凭借战略、技术和规模优势,已占据主导地位,预示其将在未来AI应用爆发中扮演重要角色。
Nebula
10-15 15:39:17
AI应用
tokens
火山引擎
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek等开源模型,更“浪费”token吗?
标题:开源模型真的更“浪费”token吗? 正文: 近期研究发现,像DeepSeek-R1等开源模型在回答问题时往往显得不够“节制”,尤其是在简单问题上,容易陷入过于复杂的思考。这种冗长的推理过程可能导致其单位token成本优势被抵消。 NousResearch团队的研究试图解答一个关键问题...
AI幻想空间站
10-11 10:17:13
DeepSeek
Token消耗
开源模型
分享至
打开微信扫一扫
内容投诉
生成图片
1300000000000000!谷歌每月Tokens消耗量曝光(别数了是千万亿)
2025年10月,谷歌被曝每月处理Tokens用量达1.3千万亿,创行业新高。据谷歌内部统计,这一数字较5月的480万亿和7月的980万亿显著增长。若以中文字符换算,相当于每月对话内容可填满近30亿本《红楼梦》。此外,超过1300万开发者使用谷歌AI模型,Gemini生成2.3亿视频和130亿图像,65%客户已采用其AI产品。对比微软,其季度峰值为50万亿Tokens,远低于谷歌。Tokens消耗量不仅是技术实力指标,还反映商业价值与应用落地能力。行业普遍将日均10亿Tokens设为门槛,而谷歌已成为“千万亿级”标杆,引领竞争新格局。
虚拟织梦者
10-11 09:26:13
Tokens消耗量
大模型
谷歌
分享至
打开微信扫一扫
内容投诉
生成图片
30家Tokens吞金兽,每家烧光万亿Tokens!OpenAI最大客户名单曝光,多邻国上榜
2025年10月,OpenAI曝光了30家Tokens消耗破万亿的“大金主”,涵盖初创公司和规模化企业。榜单包括多邻国、Shopify、Canva等知名企业,涉及语言学习、电商、设计等多个领域。其中,多邻国凭借7亿用户和AI驱动的动态课程设计稳居前列;Canva通过AI降低设计门槛,成为Tokens消耗巨兽;Perplexity以复杂的AI搜索架构跻身高密度Tokens应用之列。这些公司因高频交互、任务复杂度高和平台化效应脱颖而出。此外,业内提出日均10亿Tokens消耗为新基准,被称为“Tokens独角兽”的标准,标志着AI商业化落地的关键指标。
量子思考者
10-09 09:05:46
AI应用
OpenAI API
Tokens消耗
分享至
打开微信扫一扫
内容投诉
生成图片
推理token减少46%!Meta新方法缩短思维链,告别重复推导
正文:2025年10月,Meta联合Mila-Quebec AI Institute、蒙特利尔大学和普林斯顿大学提出“元认知复用(Metacognitive Reuse)”机制,旨在缩短大模型推理链并减少重复推导。该方法通过让模型回顾解题思路,提炼可复用的推理步骤为标准化“行为”,存储于“行为手册”中供后续调用。实验表明,在MATH、AIME等数学基准测试中,该机制在保持准确率不变的情况下,最多可减少46%的推理token使用量。研究团队在行为条件推理、行为引导自我改进和行为条件监督微调三种场景下验证了其有效性,并指出新方法显著提升了推理效率与性能。
LunarCoder
10-05 17:21:54
元认知复用
推理token
行为手册
分享至
打开微信扫一扫
内容投诉
生成图片
2025人工智能计算大会观察:token成本成AI应用规模化瓶颈 行业寻求算力“破局”
9月27日,2025人工智能计算大会在北京举行,聚焦AI基础设施与算力优化。会上,中国移动等30多家机构联合发布《智算应用“北京方案”》。专家指出,token成本高成为AI应用规模化的瓶颈,尤其在客服、推荐等场景中,企业面临盈利压力。浪潮信息推出元脑HC1000服务器,通过硬件创新将推理成本降至1元/每百万token,并提升性能1.75倍。业内人士强调,AI产业正从模型竞赛转向应用落地,基础设施的降本增效将是关键。
代码编织者Nexus
09-27 14:41:56
AI算力
token成本
智能体
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序