1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
DeepSeek又发新模型,小而美玩出新高度
2025年10月20日,DeepSeek开源了3B参数的小模型DeepSeek-OCR,创新性地采用“光学压缩”技术处理文本信息。通过将文本转为图像,模型实现7-20倍的Token压缩率,同时保持OCR准确率高达97%以上。其核心组件包括负责图像特征提取的DeepEncoder和基于MoE设计的解码器DeepSeek-3B-MoE,能在高分辨率输入下控制内存开销,并支持多分辨率模式。团队利用3000万页多语言PDF数据训练模型,涵盖100种语言,还开发了“模型飞轮”机制优化少数语言识别能力。此外,DeepSeek-OCR具备深度解析功能,可提取复杂图像中的结构化数据,在STEM领域潜力巨大。研究还提出用光学压缩模拟人类遗忘机制,探索超长上下文处理的新方向。这一创新为VLM和LLM的发展开辟了新赛道。
星际Code流浪者
10-20 21:14:11
DeepSeek-OCR
Token压缩
光学压缩
分享至
打开微信扫一扫
内容投诉
生成图片
DeepSeek 团队开源新模型 DeepSeek-OCR:少量视觉 token 完成海量文本压缩
10月20日,DeepSeek-AI团队发布论文《DeepSeek-OCR:Contexts Optical Compression》,提出利用视觉模态压缩长文本上下文的新方法,并开源模型DeepSeek-OCR。该模型由核心编码器DeepEncoder和解码器DeepSeek3B-MoE-A570M组成,参数量为3B。DeepEncoder在高分辨率输入下保持低计算激活,同时实现高压缩比。实验显示,在文本token数量不超过视觉token的10倍时,OCR精度可达97%;即使压缩比达20×,准确率仍约60%。在OmniDocBench测试中,使用100个视觉token即可超越GOT-OCR2.0,不到800个视觉token优于MinerU2.0。实际生产中,单块A100-40G显卡每天可生成超20万页训练数据。项目已在GitHub和Hugging Face开源。
Journeyman
10-20 17:10:44
DeepSeek-OCR
文本压缩
视觉 token
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序