1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
火山引擎tokens日均调用量已达16.4万亿
今日,在火山引擎举办的FORCE原动力大会上,火山引擎总裁谭待透露,截至今年5月底,火山引擎tokens的日均调用量已达到16.4万亿,较发布初期增长了137倍。这一数据展示了火山引擎在技术创新和业务扩展上的强劲势头。tokens作为其核心技术之一,广泛应用于多领域场景,此次披露的数据进一步体现了其技术实力及市场影响力。
元界筑梦师
06-11 11:11:09
tokens
日均调用量
火山引擎
分享至
打开微信扫一扫
内容投诉
生成图片
Qwen&清华团队颠覆常识:大模型强化学习仅用20%关键token,比用全部token训练还好
标题:Qwen&清华团队发现:大模型强化学习仅用20%高熵token效果更优 近期,Qwen&清华LeapLab团队在arXiv发布了一项突破性研究成果。他们在强化学习训练大模型推理能力时发现,仅使用20%的高熵token即可实现最佳效果,甚至优于使用全部token的训练方式。这...
跨界思维
06-06 17:35:06
二八法则
大模型强化学习
高熵token
分享至
打开微信扫一扫
内容投诉
生成图片
黄仁勋担心中国市场觉醒
标题:黄仁勋担心中国市场觉醒 正文:昨天(2025年5月7日),一年一度的米尔肯全球会议在洛杉矶举行,这是一个汇聚政要、企业家、投资者、学者等顶尖头脑的思想盛会。今年的主题是“推动一个繁荣的世界”,重点关注人工智能、可再生能源等领域。 英伟达CEO黄仁勋在会上强调,AI正引发一场全面的生产体系和...
AI创意引擎
05-08 14:31:13
AI工厂
token
技术主导权
分享至
打开微信扫一扫
内容投诉
生成图片
3B模型逆袭7B巨头!Video-XL-Pro突破长视频理解极限,大海捞针准确率超98%
标题:3B模型逆袭7B巨头!Video-XL-Pro突破长视频理解极限,准确率超98% 正文: 3B模型超越Meta 7B模型,超长视频理解SOTA刷新!上海交通大学、北京智源研究院和特伦托大学联合推出的Video-XL-Pro,实现近万帧视频单卡处理,大海捞针准确率超98%。 当前多模态大模型...
Oasis
05-04 23:17:35
Video-XL-Pro
重构式token压缩
长视频理解
分享至
打开微信扫一扫
内容投诉
生成图片
Meta Token-Shuffle 登场:自回归模型突破瓶颈,可 AI 生成 2048×2048 分辨率图像
4月25日,Meta AI推出Token-Shuffle技术,解决了自回归模型在高分辨率图像生成上的瓶颈问题。传统AR模型因高分辨率图像需大量token,导致计算成本激增,仅能处理低中分辨率图像。Token-Shuffle通过合并相邻视觉token,大幅降低计算量,使模型可生成2048×2048分辨率图像,同时保持视觉质量。该方法无需修改Transformer架构或额外预训练,兼容性强。实验显示,基于2.7B参数LLaMA模型的Token-Shuffle在GenAI-Bench测试中VQAScore达0.77,超越LlamaGen和扩散模型LDM。尽管逻辑一致性稍逊于扩散模型,但在文本对齐和图像质量上表现更优。
星际Code流浪者
04-26 14:49:30
Token-Shuffle
自回归模型
高分辨率图像
分享至
打开微信扫一扫
内容投诉
生成图片
豆包大模型日均tokens使用量超过12.7万亿
今日,《科创板日报》报道,字节跳动火山引擎在AI创新巡展杭州站上透露,豆包大模型的日均tokens使用量已超过12.7万亿,同比涨幅达106倍。这一数据展示了豆包大模型在实际应用中的快速增长趋势,体现了其在人工智能领域的广泛应用潜力。该消息由记者毛明江现场采访并发布,时间为11月17日。
镜像现实MirageX
04-17 10:32:12
tokens使用量
火山引擎
豆包大模型
分享至
打开微信扫一扫
内容投诉
生成图片
黄仁勋的“Token生意”,关键还在中国市场
标题:黄仁勋的“Token生意”,关键还在中国市场 今年GTC大会上,英伟达创始人黄仁勋提出基于“Token”作为生产资源的新经济增长周期叙事,试图讲述一个“所有人都是赢家”的AI未来。他认为,自动驾驶、生成式AI及具身智能的普及都依赖Token,而英伟达无疑是最大的Token供应方。尽管面临算...
元界筑梦师
03-20 22:49:41
Token经济学
中国市场
黄仁勋
分享至
打开微信扫一扫
内容投诉
生成图片
90分钟生成10万Token,新框架实现3倍无损加速超长文本生成,支持DeepSeek-R1和QwQ!
标题:90分钟生成10万Token,新框架实现3倍无损加速超长文本生成,支持DeepSeek-R1和QwQ! 生成10万Token的文本,传统自回归模型需近5小时,现仅需90分钟。最新研究提出名为TOKENSWIFT的框架,优化模型加载、KV缓存管理和Token生成策略,实现在保证生成质量和多样性前...
AI创意引擎
03-12 13:24:55
TOKENSWIFT框架
无损加速
超长文本生成
分享至
打开微信扫一扫
内容投诉
生成图片
华为杨超斌:近 8 个月,国内 AI 大模型 Token 所带来的流量增长了 33 倍
华为董事、ICT BG CEO 杨超斌表示,在过去8个月内,中国市场AI产生的Token所带来的流量增长了33倍,其中15倍来自付费Token。自DeepSeek推出后,中国市场每Token的价格下降了97%。杨超斌预计,到2030年,中国市场因Token带来的网络流量将达每天500TB,目前全中国所有移动网络流量加起来每天为90TB。这意味着Token数量的增加将显著提升移动网络流量。该数据反映了AI技术在中国市场的迅速发展和广泛应用。
月光编码师
03-04 20:33:25
AI大模型
token
华为
分享至
打开微信扫一扫
内容投诉
生成图片
腾讯携手创新“无监督前缀微调”技术:训练 tokens 最多减少 95%,提升 AI 推理效率
腾讯AI Lab与香港中文大学合作,提出“无监督前缀微调”(UPFT)技术,大幅提升大型语言模型推理效率。UPFT仅需关注模型输出的前8至32个词元,无需完整推理过程。研究显示,不同推理路径的初期步骤高度相似,UPFT利用这一特性,减少95%的tokens训练,显著降低时间和内存需求。UPFT在GSM8K、MATH500等多个推理基准测试中表现优异,尤其在复杂推理任务中效果显著。
幻彩逻辑RainbowLogic
03-02 15:41:26
tokens
推理效率
无监督前缀微调
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序