
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月2日,鸿海精密工业股份有限公司申请注册旗下首款AI推理大模型“FoxBrain”商标,当前状态为“等待实质审查”。该模型由鸿海研究院研发,是台湾地区首款AI推理大模型,具备数据分析、数学、推理和代码生成功能。模型基于Meta Llama 3.1打造,初始版本使用120块英伟达H100 GPU训练一个月完成,并对繁体中文进行优化,部分性能略逊于DeepSeek部分模型。此前联发科也曾推出Llama-Breeze2系列AI模型。
原文链接
财联社7月2日电,天眼查信息显示,鸿海精密工业股份有限公司申请注册名为‘FoxBrain’的AI推理大模型商标,国际分类为科学仪器,目前处于等待实质审查阶段。FoxBrain是鸿海研究院自主研发的首款繁体中文AI大模型,于今年3月正式发布,基于Meta Llama 3.1架构开发,专注于数学推演、逻辑分析与代码生成领域。
原文链接
标题:10% KV Cache实现无损数学推理!开源方法解决大模型「记忆过载」难题
推理大模型虽然强大,但面对复杂问题时会产生大量冗余内容,影响效率和准确性。一种名为R-KV的开源方法通过高效压缩KV缓存解决了这一问题,显存需求减少90%,吞吐量提升6.6倍,且保持100%的推理准确率。
R-K...
原文链接
2025年高考已结束,但数学科目难度引发持续讨论。《每日经济新闻》测评了DeepSeek-R1、腾讯混元T1、Grok3等十款AI大模型,使用2025年全国新课标数学I卷。国产模型DeepSeek-R1与腾讯混元T1以零错误并列第一,得分117分;讯飞星火X1以112分紧随其后。Grok3表现不佳,仅获91分,排名倒数第三,因无法正确理解多选题。智谱清言推理模式得78分,位列倒数第二。Kimi k1.5垫底,压轴题失误严重。测评显示,AI在固定逻辑题上能力强,但在创新思维题上仍有局限。
原文链接
标题:推理大模型1年内可能遭遇性能瓶颈
一年内,大模型推理训练或将遇到瓶颈。这一结论来自Epoch AI,该非营利组织专注于AI研究和基准测试,曾推出备受关注的FrontierMath基准测试。研究表明,若推理模型继续以每3-5个月翻十倍的速度扩展,其训练所需的算力可能会迅速收敛。
OpenAI...
原文链接
4月30日,小米开源首个专为推理设计的大模型「Xiaomi MiMo」。在AIME和LiveCodeBench评测中,MiMo仅用7B参数规模,就超越了OpenAI的o1-mini和阿里更大型号QwQ-32B-Preview。MiMo通过预训练和后训练结合的方式提升推理能力,预训练阶段生成约200B tokens推理数据,训练总量达25T tokens;后训练采用创新算法和框架,使RL训练速度提升2.29倍。MiMo已在HuggingFace开源,其技术细节也在GitHub公布。这是小米大模型Core团队的首次尝试,标志着AGI探索的持续努力。
原文链接
3月26日,《科创板日报》报道,昆仑万维正式发布全球首款音乐推理大模型Mureka O1及Mureka V6模型。其中,Mureka O1在性能上超越了Suno模型,并成功登顶SOTA(State-of-the-Art),标志着人工智能领域在音乐推理方向上的重要突破。这一成果体现了昆仑万维在AI技术研发方面的领先地位,也为未来音乐与AI结合的应用场景提供了更多可能性。
原文链接
3月26日,昆仑万维发布全球首款音乐推理大模型Mureka O1,其性能超越Suno并登顶SOTA。Mureka V6作为基础模型,支持10种语言的AI音乐创作,包括英语、中文、日语等,并引入自研ICL技术增强声场和混音效果。Mureka O1则在此基础上加入CoT技术,通过推理优化提升音乐品质与创作效率。两款模型均支持多元化风格及情感表达,涵盖爵士、流行、摇滚等多种曲风。此外,Mureka提供“歌曲参考”功能,用户可上传音频或链接进行创作,还有“音色克隆”功能,允许上传个人声音以生成专属作品。
原文链接
最新研究发现,推理大模型在处理高难度问题时会出现“欠思考”现象,频繁切换解题思路导致无效努力。腾讯AI实验室、苏州大学和上海交大团队通过分析DeepSeek-R1和Qwen QwQ系列模型,指出这些模型在初期找到正确思路后,很快转向其他思路,浪费计算资源。研究显示,类o1模型在错误回答中比正确回答多消耗225%的token,思维切换频率增加418%。为解决此问题,研究者提出“思路切换惩罚机制”(TIP),使模型在AIME2024测试中准确率提升4%。同时,UC Berkeley教授Alex Dimakis建议采用“简洁解码”策略,提高6%-7%的准确率。
原文链接
最新研究揭示,推理大模型如DeepSeek-R1和Qwen QwQ在处理高难度问题时易出现‘欠思考’现象,即频繁切换解题思路但缺乏深入探索,导致答案不准确且浪费计算资源。研究团队来自腾讯AI实验室、苏州大学和上海交通大学,通过分析模型错误答案发现,这类模型在思考早期就走上正确路线,但很快转向其他思路。实验显示,类o1模型在错误回答中比正确回答多消耗225%的token,思维切换频率增加418%。为解决此问题,研究者提出“思路切换惩罚机制”(TIP),使模型在当前路径上探索更久,实验结果表明准确率提升且UT Score下降。此外,UC Berkeley教授Alex Dimakis提出“简洁解码”方法,通过并行运行多次模型选择最简答案,提高准确率6%-7%。
原文链接
加载更多

暂无内容