
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年9月,苹果与牛津大学和香港城市大学联合发布了一项名为BED-LLM的研究成果。该方法无需微调或重训模型,通过引入贝叶斯实验设计框架,显著提升了大型语言模型(LLM)的提问效率。其核心是让AI学会动态调整问题,以最大化信息增益,并解决多轮对话中的“遗忘症”问题。实验表明,BED-LLM在猜谜游戏和电影推荐任务中将成功率从14%提升至91%,并在跨模型对话中表现出色。这一突破展示了AI从被动问答向主动信息收集的转变,为未来智慧对话提供了新方向。
原文链接
9月2日,瑞士正式发布国家级开源大语言模型Apertus,由洛桑联邦理工学院、苏黎世联邦理工学院及瑞士国家超级计算中心联合研发。该模型完全开源,提供训练文档、源代码和数据集,严格遵守瑞士数据保护与版权法规,适合希望符合欧洲法规的企业使用。Apertus支持1000多种语言,非英语数据占比40%,涵盖瑞士本土语言,训练数据仅使用公开资源并尊重网站爬取限制。目前提供80亿和700亿参数两种版本,可通过瑞士电信或Hugging Face获取。瑞士官方称其为公共AI基础设施的有力证明,未来可能在科研、企业及银行领域广泛应用。
原文链接
大模型自指:代码生成的递归式自我提升
近年来,研究表明通过“脚手架”程序多次调用语言模型,可显著提升输出质量。本研究提出一种名为“自学优化器”(Self-Taught Optimizer,STOP)的方法,利用语言模型驱动的脚手架改进自身。实验中,团队构建了一个“种子改进器”,通过多次调用模型生成候...
原文链接
2025年8月,英伟达韩松团队推出全新高效语言模型Jet-Nemotron,基于后神经架构搜索(PostNAS)技术。该模型在MMLU等基准测试中表现优异,吞吐量较Qwen3-1.7B快47倍,缓存缩小至1/47,同时在数学、常识推理、编码等任务上超越多个基线模型。研究团队通过全注意力层优化、动态卷积模块设计及硬件感知搜索提升效率,并计划开源代码与模型。团队成员均来自华人学者,包括清华大学、麻省理工学院等顶尖机构的研究人员。这一成果显著推进了高效语言模型的发展。
原文链接
8月25日,苹果研究人员提出一种名为“基于清单反馈的强化学习”(RLCF)的新方法,通过任务清单替代传统人类评分,显著提升大语言模型执行复杂指令的能力。RLCF为每条指令生成具体检查清单并逐项评分,指导模型优化。团队在Qwen2.5-7B-Instruct模型上测试显示,该方法在多个评测基准中均取得提升,部分任务最高提升达8.2%。研究利用更大规模模型生成13万条“WildChecklists”数据集,提供明确判断项用于训练。不过,研究者指出RLCF依赖更强模型评判,资源受限场景可能受限,且不适用于安全对齐,仍需进一步验证适用性。
原文链接
标题:GPT-5变蠢背后:抑制AI幻觉的代价
OpenAI发布GPT-5后引发广泛批评,用户认为其“变蠢了”“没创造力了”。这并不意外,因为GPT-5显著降低了幻觉率,但代价是输出更呆板。降低幻觉率让模型更严谨,却削弱了主观能动性,这对写代码和Agent构建有帮助,但消费级用户对此需求不高。此外...
原文链接
小模型,也是嵌入式的未来
英伟达近期提出一个引人注目的研究结论:小型语言模型(SLM)才是智能体的未来。随后发布的Nemotron-Nano-9B-V2模型,在部分基准测试中表现优异。这股“小模型”风潮也席卷了MCU和MPU领域。
SLM通常由大型语言模型(LLM)压缩而来,参数规模从几百万...
原文链接
8月19日,英伟达发布开源小型语言模型Nemotron-Nano-9B-V2。该模型在指定基准测试中表现出同类最佳性能,并支持用户灵活开启或关闭AI推理功能。值得一提的是,这款模型能够在单个英伟达A10 GPU上运行,为开发者和研究人员提供了更高的效率与灵活性。这一发布进一步丰富了英伟达在AI领域的技术生态,为小型语言模型的应用开辟了新可能。
原文链接
8月13日,阿里巴巴集团旗下智能信息事业群启动大规模AI人才招聘计划,社招与校招总规模近千人。招聘聚焦大语言模型、多模态识别与理解、多模态训练工程、智能体应用及AI硬件等前沿技术领域,工作地点覆盖北京、上海、杭州、广州等核心城市。此次招聘旨在加速阿里在AI TO C业务领域的布局与发展,为技术创新和应用落地注入新动力。
原文链接
2025年8月8日,小红书开源了首个多模态大模型dots.vlm1,基于自研12亿参数视觉编码器和DeepSeek V3语言模型构建。该模型在视觉理解与推理任务中性能接近SOTA水平,可完成色盲图识别、数独解题、高考数学题解答等复杂任务,并能模仿李白诗风创作诗词。模型已在GitHub和HuggingFace平台开源,提供Demo供体验。这是小红书两个月内开源的第三款模型,体现了其技术自研的决心。团队强调多元智能研发方向,未来或将进一步结合图文生成能力与应用产品,推动更精准的内容理解和社区交互。
原文链接
加载更多

暂无内容