
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年10月22日,DeepSeek发布新模型DeepSeek-OCR,革新了信息存储方式。该模型通过将大量文字压缩成图片形式,实现用更少的视觉token记住更多信息,仅需100个token即可超越传统模型256个token的效果,不到800个token便击败需6000+token的竞品。DeepSeek-OCR支持多种分辨率与动态调整模式,可识别并存储图片中的表格、分子结构等复杂数据,同时保留图片位置及上下文信息。此外,模型大幅降低计算资源消耗,以1/10的token数量保持96.5%的准确率,并引入类似人类遗忘机制的分级存储方式。研究基于华为、百度、Meta及OpenAI等开源成果,展现了全球协作的力量。目前,DeepSeek-OCR已开源,未来应用前景广阔。
原文链接
10月21日,美国研究公司Nof1举办‘Alpha Arena’AI投资实战大赛,DeepSeek V3.1模型在三天内将1万美元本金增值至13647.9美元,收益率达36%,位列第一。比赛在去中心化交易所Hyperliquid进行,参赛的六大顶级AI模型包括Claude 4.5 Sonnet、Gemini 2.5 Pro、GPT 5等。DeepSeek成功的关键在于分散投资主流加密资产、控制杠杆风险及严格执行止损策略。其他模型表现参差不齐,Grok 4以30%收益率位居第二,部分模型因执行失误或策略偏差未能取得理想成绩。主办方称,各模型差异源于指令执行与风险管理能力。
原文链接
2025年10月20日,DeepSeek团队发布并开源了DeepSeek-OCR模型,参数规模约3B,采用“视觉-文字压缩”方案,显著提升扫描效率。然而,近期DeepSeek在C端用户规模上被豆包反超。8月数据显示,豆包月活(MAU)达1.57亿,环比增长6.6%,超越DeepSeek的1.43亿。豆包的成功得益于与抖音生态的深度整合及多模态能力的广泛应用。尽管DeepSeek坚持技术深耕路线,但其产品理念和交互方式对用户的吸引力有所减弱。未来,DeepSeek需在技术研发的同时,探索差异化生态策略,以应对豆包等竞争对手的挑战。
原文链接
2025年10月,DeepSeek开源新模型DeepSeek-OCR,引发硅谷热议。该模型以3B参数规模,通过“视觉压缩文本”方法解决大模型处理长文本的算力难题,被认为可能泄露谷歌Gemini商业机密。其核心创新是将文字信息压缩至图像中,用少量视觉token替代大量文本token,显著降低计算开销,并在主流基准OmniDocBench上取得SOTA表现。模型支持多种复杂文档解析,如金融报表、化学分子式等。研究团队由Haoran Wei等三位成员组成,他们还提出模拟人类遗忘机制的新思路,为AI记忆架构提供新方向。目前,该模型已在GitHub获3.3K星,HuggingFace热榜第二,受到卡帕西等专家高度评价。
原文链接
2025年10月,DeepSeek开源新模型DeepSeek-OCR,引发硅谷热议。该模型通过二维视觉压缩一维文字,显著降低大模型处理长文本的算力需求。其核心创新是“上下文光学压缩”思路,用少量视觉token表示大量文本信息,在OmniDocBench基准测试中取得SOTA表现。例如,仅用100个视觉token即可超越GOT-OCR2.0。模型由编码器DeepEncoder和解码器DeepSeek3B-MoE-A570M组成,支持多种压缩模式,适用于复杂文档解析。研究团队还提出模拟人类遗忘机制的新思路,动态分配计算资源以优化超长上下文处理能力。目前,项目已在GitHub获3.3K星,HuggingFace热榜排名第二。
原文链接
2025年10月20日,DeepSeek开源了3B参数的小模型DeepSeek-OCR,创新性地采用“光学压缩”技术处理文本信息。通过将文本转为图像,模型实现7-20倍的Token压缩率,同时保持OCR准确率高达97%以上。其核心组件包括负责图像特征提取的DeepEncoder和基于MoE设计的解码器DeepSeek-3B-MoE,能在高分辨率输入下控制内存开销,并支持多分辨率模式。团队利用3000万页多语言PDF数据训练模型,涵盖100种语言,还开发了“模型飞轮”机制优化少数语言识别能力。此外,DeepSeek-OCR具备深度解析功能,可提取复杂图像中的结构化数据,在STEM领域潜力巨大。研究还提出用光学压缩模拟人类遗忘机制,探索超长上下文处理的新方向。这一创新为VLM和LLM的发展开辟了新赛道。
原文链接
10月17日,金融AI研究实验室nof1发起名为‘Alpha Arena’的AI交易大赛,6个主流AI模型使用真实资金在加密货币市场自主交易。截至10月20日下午6点,DeepSeek以41.81%收益率领跑,账户价值达14,181美元;Grok紧随其后,单笔交易获利37.65%。Claude Sonnet 4.5排名第三,收益率24.59%。然而,GPT-5和Gemini表现惨淡,分别亏损25.4%和29.03%。实验由量化交易背景的Jay Azhang主导,展现AI在真实市场中的潜力,但数据透明性与长期表现仍待验证。这场‘链上真人秀’引发广泛关注,马斯克亦曾转发相关动态。
原文链接
10月18日,美国人工智能研究实验室nof1.ai在‘Alpha Arena’平台举办了一场真实资金加密货币交易竞赛,六大主流AI模型各获1万美元,在Hyperliquid交易所进行永续合约交易。截至10月20日17:18,DeepSeek以近1.4万美元的持仓总市值和约40%的收益率暂居首位,Grok 4紧随其后。两者均通过做多比特币和以太坊获利。Claude与Qwen分别交易瑞波币和以太坊,收益位列第三、第四,但整体优于比特币现货走势。而GPT 5和Gemini表现最差,亏损约2700至3100美元。nof1.ai表示,竞赛旨在贴近真实金融市场测试AI能力,第一季将持续数周,并计划推出第二季更新。
原文链接
2025年10月20日,全球6大顶级AI模型在Alpha Arena加密货币交易竞赛中展开对决,各自获得1万美元初始资金。截至15:19,DeepSeek V3.1表现最佳,收益率达39.55%,资产增至14310美元,采用激进的杠杆与多头策略。Grok 4紧随其后,收益率36.36%;Claude 4.5稳健获利24.12%。而GPT-5和Gemini 2.5 Pro分别亏损24.54%和29.76%,因策略失误和高频交易导致收益垫底。比赛由nof1.ai举办,强调AI自主决策与透明记录,旨在通过金融市场训练下一代AI。与此同时,周杰伦近日因比特币账户被代持者‘人间蒸发’损失上亿新台币,引发对AI投资透明度的关注。尽管AI有盈亏风险,但至少能提供清晰交易记录,避免人为失联问题。
原文链接
10月20日,DeepSeek-AI团队发布论文《DeepSeek-OCR:Contexts Optical Compression》,提出利用视觉模态压缩长文本上下文的新方法,并开源模型DeepSeek-OCR。该模型由核心编码器DeepEncoder和解码器DeepSeek3B-MoE-A570M组成,参数量为3B。DeepEncoder在高分辨率输入下保持低计算激活,同时实现高压缩比。实验显示,在文本token数量不超过视觉token的10倍时,OCR精度可达97%;即使压缩比达20×,准确率仍约60%。在OmniDocBench测试中,使用100个视觉token即可超越GOT-OCR2.0,不到800个视觉token优于MinerU2.0。实际生产中,单块A100-40G显卡每天可生成超20万页训练数据。项目已在GitHub和Hugging Face开源。
原文链接
加载更多

暂无内容