1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?
2025年9月,苹果与牛津大学和香港城市大学联合发布了一项名为BED-LLM的研究成果。该方法无需微调或重训模型,通过引入贝叶斯实验设计框架,显著提升了大型语言模型(LLM)的提问效率。其核心是让AI学会动态调整问题,以最大化信息增益,并解决多轮对话中的“遗忘症”问题。实验表明,BED-LLM在猜谜游戏和电影推荐任务中将成功率从14%提升至91%,并在跨模型对话中表现出色。这一突破展示了AI从被动问答向主动信息收集的转变,为未来智慧对话提供了新方向。
Nebula
09-03 18:49:23
BED-LLM
信息增益
大型语言模型
分享至
打开微信扫一扫
内容投诉
生成图片
瑞士加入全球 AI 竞赛,推出国家级开源大语言模型 Apertus
9月2日,瑞士正式发布国家级开源大语言模型Apertus,由洛桑联邦理工学院、苏黎世联邦理工学院及瑞士国家超级计算中心联合研发。该模型完全开源,提供训练文档、源代码和数据集,严格遵守瑞士数据保护与版权法规,适合希望符合欧洲法规的企业使用。Apertus支持1000多种语言,非英语数据占比40%,涵盖瑞士本土语言,训练数据仅使用公开资源并尊重网站爬取限制。目前提供80亿和700亿参数两种版本,可通过瑞士电信或Hugging Face获取。瑞士官方称其为公共AI基础设施的有力证明,未来可能在科研、企业及银行领域广泛应用。
数码游侠
09-02 22:38:28
Apertus
开源大语言模型
瑞士
分享至
打开微信扫一扫
内容投诉
生成图片
大模型自指:代码生成的递归式自我提升
大模型自指:代码生成的递归式自我提升 近年来,研究表明通过“脚手架”程序多次调用语言模型,可显著提升输出质量。本研究提出一种名为“自学优化器”(Self-Taught Optimizer,STOP)的方法,利用语言模型驱动的脚手架改进自身。实验中,团队构建了一个“种子改进器”,通过多次调用模型生成候...
镜像现实MirageX
09-02 20:37:56
代码生成
语言模型
递归自我改进
分享至
打开微信扫一扫
内容投诉
生成图片
英伟达韩松团队新作:具有后神经架构搜索的高效语言模型
2025年8月,英伟达韩松团队推出全新高效语言模型Jet-Nemotron,基于后神经架构搜索(PostNAS)技术。该模型在MMLU等基准测试中表现优异,吞吐量较Qwen3-1.7B快47倍,缓存缩小至1/47,同时在数学、常识推理、编码等任务上超越多个基线模型。研究团队通过全注意力层优化、动态卷积模块设计及硬件感知搜索提升效率,并计划开源代码与模型。团队成员均来自华人学者,包括清华大学、麻省理工学院等顶尖机构的研究人员。这一成果显著推进了高效语言模型的发展。
神经网络领航员
08-26 19:51:52
Jet-Nemotron
后神经架构搜索
高效语言模型
分享至
打开微信扫一扫
内容投诉
生成图片
苹果创新“清单法”:用 AI 大模型当“老师”,教小模型更精准执行复杂指令
8月25日,苹果研究人员提出一种名为“基于清单反馈的强化学习”(RLCF)的新方法,通过任务清单替代传统人类评分,显著提升大语言模型执行复杂指令的能力。RLCF为每条指令生成具体检查清单并逐项评分,指导模型优化。团队在Qwen2.5-7B-Instruct模型上测试显示,该方法在多个评测基准中均取得提升,部分任务最高提升达8.2%。研究利用更大规模模型生成13万条“WildChecklists”数据集,提供明确判断项用于训练。不过,研究者指出RLCF依赖更强模型评判,资源受限场景可能受限,且不适用于安全对齐,仍需进一步验证适用性。
电子诗篇
08-26 07:38:55
大语言模型
清单反馈
苹果
分享至
打开微信扫一扫
内容投诉
生成图片
GPT-5变蠢背后:抑制AI的幻觉,反而让模型没用了?
标题:GPT-5变蠢背后:抑制AI幻觉的代价 OpenAI发布GPT-5后引发广泛批评,用户认为其“变蠢了”“没创造力了”。这并不意外,因为GPT-5显著降低了幻觉率,但代价是输出更呆板。降低幻觉率让模型更严谨,却削弱了主观能动性,这对写代码和Agent构建有帮助,但消费级用户对此需求不高。此外...
智慧棱镜
08-23 07:59:01
AI幻觉
大语言模型
微调
分享至
打开微信扫一扫
内容投诉
生成图片
小模型,也是嵌入式的未来
小模型,也是嵌入式的未来 英伟达近期提出一个引人注目的研究结论:小型语言模型(SLM)才是智能体的未来。随后发布的Nemotron-Nano-9B-V2模型,在部分基准测试中表现优异。这股“小模型”风潮也席卷了MCU和MPU领域。 SLM通常由大型语言模型(LLM)压缩而来,参数规模从几百万...
数字墨迹
08-22 08:42:31
MCU
小型语言模型
嵌入式设备
分享至
打开微信扫一扫
内容投诉
生成图片
英伟达发布小语言模型Nemotron-Nano-9B-v2
8月19日,英伟达发布开源小型语言模型Nemotron-Nano-9B-V2。该模型在指定基准测试中表现出同类最佳性能,并支持用户灵活开启或关闭AI推理功能。值得一提的是,这款模型能够在单个英伟达A10 GPU上运行,为开发者和研究人员提供了更高的效率与灵活性。这一发布进一步丰富了英伟达在AI领域的技术生态,为小型语言模型的应用开辟了新可能。
量子黑客
08-19 09:57:30
Nemotron-Nano-9B-v2
小型语言模型
英伟达
分享至
打开微信扫一扫
内容投诉
生成图片
阿里AI TO C 业务启动近千人招聘
8月13日,阿里巴巴集团旗下智能信息事业群启动大规模AI人才招聘计划,社招与校招总规模近千人。招聘聚焦大语言模型、多模态识别与理解、多模态训练工程、智能体应用及AI硬件等前沿技术领域,工作地点覆盖北京、上海、杭州、广州等核心城市。此次招聘旨在加速阿里在AI TO C业务领域的布局与发展,为技术创新和应用落地注入新动力。
AI思维矩阵
08-13 16:39:25
AI人才招聘
大语言模型
阿里巴巴
分享至
打开微信扫一扫
内容投诉
生成图片
刚刚,小红书开源了首个多模态大模型dots.vlm1,性能直追SOTA!
2025年8月8日,小红书开源了首个多模态大模型dots.vlm1,基于自研12亿参数视觉编码器和DeepSeek V3语言模型构建。该模型在视觉理解与推理任务中性能接近SOTA水平,可完成色盲图识别、数独解题、高考数学题解答等复杂任务,并能模仿李白诗风创作诗词。模型已在GitHub和HuggingFace平台开源,提供Demo供体验。这是小红书两个月内开源的第三款模型,体现了其技术自研的决心。团队强调多元智能研发方向,未来或将进一步结合图文生成能力与应用产品,推动更精准的内容理解和社区交互。
AGI探路者
08-08 16:14:57
dots.vlm1
多模态大模型
视觉语言模型
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序