综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月22日,智谱与DeepSeek在视觉Token研究上再度‘撞车’。DeepSeek-OCR发布不到一天,智谱便开源了其视觉Token方案Glyph。两者均通过视觉方式破解LLM上下文冗长的难题。Glyph将文本渲染成图像式视觉Token,大幅压缩上下文长度,最高可实现3-4倍的Token压缩率,同时保持与主流模型相当的准确度。实验显示,Glyph在极端压缩下仍能应对百万级Token任务,并提升推理速度4倍、训练效率2倍。论文由清华大学团队完成,一作为博士生Jiale Cheng,通讯作者为黄民烈教授。视觉Token潜力巨大,DeepSeek-OCR用100个视觉Token即可达到97.3%准确率,单张A100 GPU日处理超20万页文档。未来,像素可能取代文本成为AI的基本信息单元。
原文链接
2025年10月20日,DeepSeek开源了3B参数的小模型DeepSeek-OCR,创新性地采用“光学压缩”技术处理文本信息。通过将文本转为图像,模型实现7-20倍的Token压缩率,同时保持OCR准确率高达97%以上。其核心组件包括负责图像特征提取的DeepEncoder和基于MoE设计的解码器DeepSeek-3B-MoE,能在高分辨率输入下控制内存开销,并支持多分辨率模式。团队利用3000万页多语言PDF数据训练模型,涵盖100种语言,还开发了“模型飞轮”机制优化少数语言识别能力。此外,DeepSeek-OCR具备深度解析功能,可提取复杂图像中的结构化数据,在STEM领域潜力巨大。研究还提出用光学压缩模拟人类遗忘机制,探索超长上下文处理的新方向。这一创新为VLM和LLM的发展开辟了新赛道。
原文链接
10月20日,DeepSeek-AI团队发布论文《DeepSeek-OCR:Contexts Optical Compression》,提出利用视觉模态压缩长文本上下文的新方法,并开源模型DeepSeek-OCR。该模型由核心编码器DeepEncoder和解码器DeepSeek3B-MoE-A570M组成,参数量为3B。DeepEncoder在高分辨率输入下保持低计算激活,同时实现高压缩比。实验显示,在文本token数量不超过视觉token的10倍时,OCR精度可达97%;即使压缩比达20×,准确率仍约60%。在OmniDocBench测试中,使用100个视觉token即可超越GOT-OCR2.0,不到800个视觉token优于MinerU2.0。实际生产中,单块A100-40G显卡每天可生成超20万页训练数据。项目已在GitHub和Hugging Face开源。
原文链接
2025年9月底,豆包大模型日均Tokens调用量突破30万亿,较5月底增长超80%。火山引擎总裁谭待在武汉举行的FORCE LINK AI创新巡展上透露了这一数据。此外,2025年上半年,火山引擎在中国公有云大模型服务市场中占据49.2%的份额,显示其在企业市场的强大竞争力。(记者 张洋洋)
原文链接
9月19日,IDC发布《中国大模型公有云服务市场分析,2025H1》报告。数据显示,2025年上半年中国公有云大模型调用量达536.7万亿Tokens,较2024年增长近400%。火山引擎以49.2%市场份额领跑,阿里云和百度智能云分列二、三位。报告指出,市场正从模型训练转向推理服务,多模态与Agent应用成增长驱动力。行业经历两个关键拐点:2024年7月豆包大模型降本推动增长超160%,2025年2月DeepSeek-R1爆红加速向推理时代转型。Token作为AI应用核心标尺,反映真实需求,具备指数级增长潜力。火山引擎凭借战略、技术和规模优势,已占据主导地位,预示其将在未来AI应用爆发中扮演重要角色。
原文链接
标题:开源模型真的更“浪费”token吗?
正文:
近期研究发现,像DeepSeek-R1等开源模型在回答问题时往往显得不够“节制”,尤其是在简单问题上,容易陷入过于复杂的思考。这种冗长的推理过程可能导致其单位token成本优势被抵消。
NousResearch团队的研究试图解答一个关键问题...
原文链接
2025年10月,谷歌被曝每月处理Tokens用量达1.3千万亿,创行业新高。据谷歌内部统计,这一数字较5月的480万亿和7月的980万亿显著增长。若以中文字符换算,相当于每月对话内容可填满近30亿本《红楼梦》。此外,超过1300万开发者使用谷歌AI模型,Gemini生成2.3亿视频和130亿图像,65%客户已采用其AI产品。对比微软,其季度峰值为50万亿Tokens,远低于谷歌。Tokens消耗量不仅是技术实力指标,还反映商业价值与应用落地能力。行业普遍将日均10亿Tokens设为门槛,而谷歌已成为“千万亿级”标杆,引领竞争新格局。
原文链接
2025年10月,OpenAI曝光了30家Tokens消耗破万亿的“大金主”,涵盖初创公司和规模化企业。榜单包括多邻国、Shopify、Canva等知名企业,涉及语言学习、电商、设计等多个领域。其中,多邻国凭借7亿用户和AI驱动的动态课程设计稳居前列;Canva通过AI降低设计门槛,成为Tokens消耗巨兽;Perplexity以复杂的AI搜索架构跻身高密度Tokens应用之列。这些公司因高频交互、任务复杂度高和平台化效应脱颖而出。此外,业内提出日均10亿Tokens消耗为新基准,被称为“Tokens独角兽”的标准,标志着AI商业化落地的关键指标。
原文链接
正文:2025年10月,Meta联合Mila-Quebec AI Institute、蒙特利尔大学和普林斯顿大学提出“元认知复用(Metacognitive Reuse)”机制,旨在缩短大模型推理链并减少重复推导。该方法通过让模型回顾解题思路,提炼可复用的推理步骤为标准化“行为”,存储于“行为手册”中供后续调用。实验表明,在MATH、AIME等数学基准测试中,该机制在保持准确率不变的情况下,最多可减少46%的推理token使用量。研究团队在行为条件推理、行为引导自我改进和行为条件监督微调三种场景下验证了其有效性,并指出新方法显著提升了推理效率与性能。
原文链接
9月27日,2025人工智能计算大会在北京举行,聚焦AI基础设施与算力优化。会上,中国移动等30多家机构联合发布《智算应用“北京方案”》。专家指出,token成本高成为AI应用规模化的瓶颈,尤其在客服、推荐等场景中,企业面临盈利压力。浪潮信息推出元脑HC1000服务器,通过硬件创新将推理成本降至1元/每百万token,并提升性能1.75倍。业内人士强调,AI产业正从模型竞赛转向应用落地,基础设施的降本增效将是关键。
原文链接
加载更多
暂无内容