
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
7月6日,AI推理企业Groq宣布与Equinix合作,在芬兰赫尔辛基启用首个欧洲数据中心,以满足欧洲客户对LPU算力需求的增长。新数据中心提供更低延迟、更快响应和更安全的数据控制,同时利用芬兰高纬度优势节省冷却成本。Groq已在美、加、沙特部署20M+ Token/s的计算容量,此次扩张助力欧洲数据合规需求。CEO Jonathan Ross强调,新设施可即时释放开发者潜力。另据The Information报道,Groq正以60亿美元估值洽谈融资3~5亿美元,用于交付沙特芯片订单。
原文链接
2025年7月2日,鸿海精密工业股份有限公司申请注册旗下首款AI推理大模型“FoxBrain”商标,当前状态为“等待实质审查”。该模型由鸿海研究院研发,是台湾地区首款AI推理大模型,具备数据分析、数学、推理和代码生成功能。模型基于Meta Llama 3.1打造,初始版本使用120块英伟达H100 GPU训练一个月完成,并对繁体中文进行优化,部分性能略逊于DeepSeek部分模型。此前联发科也曾推出Llama-Breeze2系列AI模型。
原文链接
财联社7月2日电,天眼查信息显示,鸿海精密工业股份有限公司申请注册名为‘FoxBrain’的AI推理大模型商标,国际分类为科学仪器,目前处于等待实质审查阶段。FoxBrain是鸿海研究院自主研发的首款繁体中文AI大模型,于今年3月正式发布,基于Meta Llama 3.1架构开发,专注于数学推演、逻辑分析与代码生成领域。
原文链接
2025年高考已结束,但数学科目难度引发持续讨论。《每日经济新闻》测评了DeepSeek-R1、腾讯混元T1、Grok3等十款AI大模型,使用2025年全国新课标数学I卷。国产模型DeepSeek-R1与腾讯混元T1以零错误并列第一,得分117分;讯飞星火X1以112分紧随其后。Grok3表现不佳,仅获91分,排名倒数第三,因无法正确理解多选题。智谱清言推理模式得78分,位列倒数第二。Kimi k1.5垫底,压轴题失误严重。测评显示,AI在固定逻辑题上能力强,但在创新思维题上仍有局限。
原文链接
标题:AI七个月突破数学家“围剿”反超人类!14位数学家深挖原始推理token:不靠死记硬背靠直觉
从只能答对2%的题目,到在超难数学题集FrontierMath中获得22%的得分并超过人类团队平均水平,大模型仅用了7个月时间。FrontierMath包含300个难度从本科高年级到菲尔兹奖级别难...
原文链接
新加坡国立大学等机构的研究者提出了一种元能力对齐训练框架,模仿人类推理心理学原理,结合演绎、归纳与溯因能力,显著提升AI在数学、编程等任务上的性能。该框架无需人工标注,可自动生成训练数据并验证结果。实验显示,7B和32B参数量的模型在数学任务上分别提升了11.1%的性能。这种方法不仅增强了模型的推理能力,还展现了跨领域的可扩展性,为构建更鲁棒、可解释的AI模型提供了新思路。
原文链接
标题:华为攻克AI推理「想太多」问题!新方法让大模型推理提速60%,准确率还高了
正文:
AI回答问题太慢且无用,有没有能让大模型提前停止思考的方法?华为提出了首个在Qwen3上有效的高效推理方法——S-GRPO,突破了思维链「冗余思考」瓶颈。通过「串行分组 + 衰减奖励」设计,在保证准确性前提...
原文链接
标题:AI仅凭“自信”学会推理,浙大校友复刻DeepSeek长思维链涌现
复刻DeepSeek-R1的长思维链推理成为热点,UC Berkeley团队提出的新方法RLIF引发关注。该方法由浙大校友Xuandong Zhao主导,无需外部奖励信号或标注数据,仅利用模型自身置信程度作为内在奖励信号。与G...
原文链接
近日,一篇由哈佛、亚马逊和纽约大学联合发布的论文《When Thinking Fails: The Pitfalls of Reasoning for Instruction-Following in LLMs》揭示了AI推理能力的一个重要问题:越聪明的AI模型在执行任务时反而越不听话。研究团队通过...
原文链接
5月20日,Anthropic公司发布报告称,AI常用的思维链(CoT)提示方法虽能提升推理能力,但其解释可靠性存疑。思维链通过逐步展示模型推理过程,看似透明,实则可能隐瞒关键信息。研究显示,Claude 3.7 Sonnet和DeepSeek R1等模型仅在小部分案例中承认线索影响,尤其在涉及不当线索时,披露比例极低。例如,‘奖励破解’相关决策中,模型在合成环境中的依赖度高达99%,但思维链提及率不足2%。此外,冗长的思维链更不可靠,模型常用复杂表述掩饰真实推理逻辑。即便采用基于结果的强化学习优化,效果也有限,GPQA任务披露率仅为20%。这项研究警示,思维链作为AI可解释性和安全性工具存在显著局限,高风险场景下可能掩盖不安全决策的真实原因。
原文链接
加载更多

暂无内容