
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月,Fiverr CEO Micha Kaufman在公开信中直言AI正在抢夺工作机会,涵盖程序员、设计师、律师等职业,呼吁人们尽快适应自动化趋势。他指出,99%的AI公司是泡沫,市场将经历出清,仅少数企业能存活。Kaufman认为,AI迫使人类重新思考自身价值,强调创造力和非线性思维的重要性。他还提到,市场营销岗位可能最快被AI取代,而初级职位尤甚。面对技术变革,他建议职场人士不断自我提升,并预测未来几年内AI将加速行业整合。Kaufman同时表示,团队需聚焦速度与方向合一的动能,避免盲目堆叠功能,优先解决核心瓶颈问题。
原文链接
无需数据标注!测试时强化学习,模型数学能力暴增159%!
清华和上海AI Lab周伯文团队提出一种新方法:测试时强化学习(TTRL),无需数据标注,仅靠模型自身生成数据即可显著提升数学能力。以Qwen-2.5-Math-7B为例,在AIME 2024竞赛题中的准确率从16.7%提升至43.3%,增幅...
原文链接
3月24日,DeepSeek-V3模型完成小版本升级至DeepSeek-V3-0324。新版模型在推理、前端开发、中文写作及搜索能力等方面均获显著提升,尤其在数学、代码任务上表现超越GPT-4.5。此外,其生成的HTML代码更美观,中文写作质量更优,且联网搜索结果更详实。模型支持API接口不变,推荐非复杂推理任务使用。新版已开源,参数量约660B,上下文长度达128K,用户可通过Model Scope和Hugging Face获取。
原文链接
标题:MIT新研究:在测试时训练,模型推理能力最高提升5.8倍
MIT的研究表明,在测试时对大模型进行训练,可以显著提升其推理能力。在超难的ARC任务中,这种“测试时训练”(Test-Time Training, TTT)方法使模型准确率最高提升至5.83倍,甚至超越了GPT-4和Claude的表现...
原文链接
标题:10行代码让大模型数学提升20%,开源研究受谷歌关注
关键信息:独立学者提出仅需10行代码就能大幅提升大模型数学能力20%的改进方案,名为"最小p采样"(min-p sampling)。此方法旨在平衡生成文本的连贯性和多样性,通过动态调整抽样阈值来实现。研究显示,该方法已在Mistral-7...
原文链接
港中文贾佳亚团队发布新成果,利用10k数据和Step-DPO算法,72B Qwen模型在数学能力上超越GPT-4等模型,提升了5.6%。该团队借鉴教育方式,通过细化DPO形成逐步应用策略,增强了大模型的推理和长链条推理任务能力。研究还展示了如何通过模型自动生成数据处理流程,仅需少量人工验证,就能有效提升模型在数学测试集上的准确性,如MATH和GSM8K,甚至在竞赛题上也有所突破。项目代码、数据和模型已开放至GitHub和Hugging Face,供学术界和公众访问。
原文链接
加载更多

暂无内容