
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
今日,在火山引擎举办的FORCE原动力大会上,火山引擎总裁谭待透露,截至今年5月底,火山引擎tokens的日均调用量已达到16.4万亿,较发布初期增长了137倍。这一数据展示了火山引擎在技术创新和业务扩展上的强劲势头。tokens作为其核心技术之一,广泛应用于多领域场景,此次披露的数据进一步体现了其技术实力及市场影响力。
原文链接
标题:Qwen&清华团队发现:大模型强化学习仅用20%高熵token效果更优
近期,Qwen&清华LeapLab团队在arXiv发布了一项突破性研究成果。他们在强化学习训练大模型推理能力时发现,仅使用20%的高熵token即可实现最佳效果,甚至优于使用全部token的训练方式。这...
原文链接
标题:黄仁勋担心中国市场觉醒
正文:昨天(2025年5月7日),一年一度的米尔肯全球会议在洛杉矶举行,这是一个汇聚政要、企业家、投资者、学者等顶尖头脑的思想盛会。今年的主题是“推动一个繁荣的世界”,重点关注人工智能、可再生能源等领域。
英伟达CEO黄仁勋在会上强调,AI正引发一场全面的生产体系和...
原文链接
标题:3B模型逆袭7B巨头!Video-XL-Pro突破长视频理解极限,准确率超98%
正文:
3B模型超越Meta 7B模型,超长视频理解SOTA刷新!上海交通大学、北京智源研究院和特伦托大学联合推出的Video-XL-Pro,实现近万帧视频单卡处理,大海捞针准确率超98%。
当前多模态大模型...
原文链接
4月25日,Meta AI推出Token-Shuffle技术,解决了自回归模型在高分辨率图像生成上的瓶颈问题。传统AR模型因高分辨率图像需大量token,导致计算成本激增,仅能处理低中分辨率图像。Token-Shuffle通过合并相邻视觉token,大幅降低计算量,使模型可生成2048×2048分辨率图像,同时保持视觉质量。该方法无需修改Transformer架构或额外预训练,兼容性强。实验显示,基于2.7B参数LLaMA模型的Token-Shuffle在GenAI-Bench测试中VQAScore达0.77,超越LlamaGen和扩散模型LDM。尽管逻辑一致性稍逊于扩散模型,但在文本对齐和图像质量上表现更优。
原文链接
今日,《科创板日报》报道,字节跳动火山引擎在AI创新巡展杭州站上透露,豆包大模型的日均tokens使用量已超过12.7万亿,同比涨幅达106倍。这一数据展示了豆包大模型在实际应用中的快速增长趋势,体现了其在人工智能领域的广泛应用潜力。该消息由记者毛明江现场采访并发布,时间为11月17日。
原文链接
标题:黄仁勋的“Token生意”,关键还在中国市场
今年GTC大会上,英伟达创始人黄仁勋提出基于“Token”作为生产资源的新经济增长周期叙事,试图讲述一个“所有人都是赢家”的AI未来。他认为,自动驾驶、生成式AI及具身智能的普及都依赖Token,而英伟达无疑是最大的Token供应方。尽管面临算...
原文链接
标题:90分钟生成10万Token,新框架实现3倍无损加速超长文本生成,支持DeepSeek-R1和QwQ!
生成10万Token的文本,传统自回归模型需近5小时,现仅需90分钟。最新研究提出名为TOKENSWIFT的框架,优化模型加载、KV缓存管理和Token生成策略,实现在保证生成质量和多样性前...
原文链接
华为董事、ICT BG CEO 杨超斌表示,在过去8个月内,中国市场AI产生的Token所带来的流量增长了33倍,其中15倍来自付费Token。自DeepSeek推出后,中国市场每Token的价格下降了97%。杨超斌预计,到2030年,中国市场因Token带来的网络流量将达每天500TB,目前全中国所有移动网络流量加起来每天为90TB。这意味着Token数量的增加将显著提升移动网络流量。该数据反映了AI技术在中国市场的迅速发展和广泛应用。
原文链接
腾讯AI Lab与香港中文大学合作,提出“无监督前缀微调”(UPFT)技术,大幅提升大型语言模型推理效率。UPFT仅需关注模型输出的前8至32个词元,无需完整推理过程。研究显示,不同推理路径的初期步骤高度相似,UPFT利用这一特性,减少95%的tokens训练,显著降低时间和内存需求。UPFT在GSM8K、MATH500等多个推理基准测试中表现优异,尤其在复杂推理任务中效果显著。
原文链接
加载更多

暂无内容