
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年9月,苹果与牛津大学和香港城市大学联合发布了一项名为BED-LLM的研究成果。该方法无需微调或重训模型,通过引入贝叶斯实验设计框架,显著提升了大型语言模型(LLM)的提问效率。其核心是让AI学会动态调整问题,以最大化信息增益,并解决多轮对话中的“遗忘症”问题。实验表明,BED-LLM在猜谜游戏和电影推荐任务中将成功率从14%提升至91%,并在跨模型对话中表现出色。这一突破展示了AI从被动问答向主动信息收集的转变,为未来智慧对话提供了新方向。
原文链接
8月7日,科罗拉多大学博尔德分校研究人员发布论文指出,大型语言模型(LLM)在解决6×6数独时表现不佳,尤其在解释决策过程时存在明显不足。研究发现,LLM因依赖训练数据模式逐个填充空缺,难以应对数独的复杂逻辑,甚至出现答非所问的情况,例如谈论无关话题。计算机科学教授阿舒托什・特里维迪强调,AI工具若无法透明解释其决策原因,将带来潜在风险。此外,LLM在国际象棋、汉诺塔等逻辑游戏中也暴露出类似问题,如违反规则或缺乏前瞻性规划。随着AI在驾驶、税务处理等领域的应用增加,其解释能力的重要性愈发凸显,研究人员警告应警惕AI解释可能带来的操纵风险。
原文链接
7月7日,一项研究显示,ChatGPT在航天器自主控制模拟竞赛中表现优异,获得第二名。该竞赛基于游戏《坎巴拉太空计划》,测试大型语言模型(LLM)在航天任务中的应用潜力。研究人员通过将航天器状态和目标转化为文本描述,使ChatGPT生成操控建议,并通过转换层实现功能代码输出。此方法展现了LLM在减少训练优化需求上的优势,尽管仍面临“幻觉”问题的挑战。研究结果表明,现成的LLM也能为航天领域提供创新解决方案,未来或助力解决手动控制卫星和深空探测延迟等问题。相关论文即将发表于《空间研究进展》杂志。
原文链接
5月13日,英伟达联合宾夕法尼亚州立大学和华盛顿大学发布Nemotron-Research-Tool-N1系列模型,该系列基于DeepSeek-R1启发,提出一种新型强化学习(RL)范式,旨在提升AI模型的外部工具使用能力。当前大型语言模型(LLMs)通过外部工具如搜索引擎、计算器等增强性能,但现有...
原文链接
4月11日,英伟达发布大型语言模型Llama-3.1-Nemotron-Ultra-253B-v1(简称Nemotron Ultra),该模型拥有2530亿参数,在推理能力、架构效率及生产准备度方面取得重大进展。作为Meta Llama-3.1-405B-Instruct架构的升级版,Nemotron Ultra专为企业和开发者设计,支持复杂指令执行及多轮对话。该模型采用创新的跳跃注意力机制,部分层省略或替换注意力模块,并通过前馈网络融合技术提升效率,上下文窗口可达128K token,适合长文本处理。在部署方面,Nemotron Ultra可在单个8xH100节点上高效运行,大幅降低数据中心成本。此外,英伟达通过多阶段后训练优化,包括监督微调和强化学习(RL),使其在多项基准测试中表现优异。
原文链接
标题:大模型“对齐”脆弱得像饺子皮
在大模型迈向通用人工智能(AGI)的过程中,“AI对齐”被认为是守护人类的最后一道防线。图灵奖得主约书亚·本吉奥指出,AI对齐不仅是技术问题,更是伦理和社会问题。AI对齐的核心目标是通过微调、强化学习等手段,确保大模型始终忠于人类价值并拒绝有害行为。
大模型公...
原文链接
OpenAI近期发布了代号为O3的新型人工智能系统,被认为是“通用人工智能(AGI)前奏”。O3在技术路线上更接近人类认知方式,展示了突破性进展。AGI若实现,将带来巨大突破,但也可能引发不确定性。尽管LLM如O1在多项测试中表现出色,但仍存在局限性。专家们对AGI的实现时间持不同观点,从几年到十年以上不等。实现AGI面临数据需求、自主性等挑战,但理论障碍不大。
原文链接
IT之家报道,EXO Labs展示了一台26年前的奔腾II电脑(128MB内存,Windows 98系统)成功运行大型语言模型(LLM)。这台350MHz的Elonex电脑通过FTP传输文件后,运行了基于Andrej Karpathy的Llama2.c开发的纯C推理引擎,生成了关于'Sleepy Joe'的故事。EXO Labs由牛津大学研究人员组成,旨在普及AI。尽管26万参数的LLM规模较小,但在Windows 98上的生成速度达每秒35.9个token。EXO Labs还提出BitNet架构,目标是实现AI的普及。
原文链接
Omdia预测,全球生成式AI市场规模将在2029年达到728亿美元,较2024年的146亿美元增长五倍。生成式AI已广泛应用于消费、企业服务、零售、媒体娱乐及医疗保健等领域。多模态生成式AI技术因其多样化功能,正推动客户服务、企业知识管理、3D数字分身和制造业等行业的应用。尽管基于大型语言模型(LLM)的应用日益普及,但LLM仅能处理文本和语音数据,无法实现多模态学习。据中国互联网络信息中心数据,截至2024年6月,我国生成式AI产品用户规模已达2.3亿人,占总人口的16.4%。
原文链接
【摘要】据知情人士透露,苹果公司正研发一款更强大的Siri数字助手,预计于2026年春季发布。新版本Siri采用先进的大型语言模型(LLM),能够进行连续对话并更快处理复杂请求。这款名为“LLM Siri”的产品将被整合进Apple Intelligence中,目标是超越OpenAI的ChatGPT及其他语音服务。尽管苹果在今年秋季已推出Apple Intelligence,但新功能不会立即应用于明年硬件设备。此次升级标志着Siri将进入一个新阶段,提升其对话能力和智能水平。(财联社11月22日)
此摘要保留了新闻的关键信息,包括时间、地点(虽然文中未明确提及具体地点,但主要涉及苹果公司)、事件等,并符合新闻三要素。
原文链接
加载更多

暂无内容