
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
7月7日,一项研究显示,ChatGPT在航天器自主控制模拟竞赛中表现优异,获得第二名。该竞赛基于游戏《坎巴拉太空计划》,测试大型语言模型(LLM)在航天任务中的应用潜力。研究人员通过将航天器状态和目标转化为文本描述,使ChatGPT生成操控建议,并通过转换层实现功能代码输出。此方法展现了LLM在减少训练优化需求上的优势,尽管仍面临“幻觉”问题的挑战。研究结果表明,现成的LLM也能为航天领域提供创新解决方案,未来或助力解决手动控制卫星和深空探测延迟等问题。相关论文即将发表于《空间研究进展》杂志。
原文链接
5月13日,英伟达联合宾夕法尼亚州立大学和华盛顿大学发布Nemotron-Research-Tool-N1系列模型,该系列基于DeepSeek-R1启发,提出一种新型强化学习(RL)范式,旨在提升AI模型的外部工具使用能力。当前大型语言模型(LLMs)通过外部工具如搜索引擎、计算器等增强性能,但现有...
原文链接
4月11日,英伟达发布大型语言模型Llama-3.1-Nemotron-Ultra-253B-v1(简称Nemotron Ultra),该模型拥有2530亿参数,在推理能力、架构效率及生产准备度方面取得重大进展。作为Meta Llama-3.1-405B-Instruct架构的升级版,Nemotron Ultra专为企业和开发者设计,支持复杂指令执行及多轮对话。该模型采用创新的跳跃注意力机制,部分层省略或替换注意力模块,并通过前馈网络融合技术提升效率,上下文窗口可达128K token,适合长文本处理。在部署方面,Nemotron Ultra可在单个8xH100节点上高效运行,大幅降低数据中心成本。此外,英伟达通过多阶段后训练优化,包括监督微调和强化学习(RL),使其在多项基准测试中表现优异。
原文链接
标题:大模型“对齐”脆弱得像饺子皮
在大模型迈向通用人工智能(AGI)的过程中,“AI对齐”被认为是守护人类的最后一道防线。图灵奖得主约书亚·本吉奥指出,AI对齐不仅是技术问题,更是伦理和社会问题。AI对齐的核心目标是通过微调、强化学习等手段,确保大模型始终忠于人类价值并拒绝有害行为。
大模型公...
原文链接
OpenAI近期发布了代号为O3的新型人工智能系统,被认为是“通用人工智能(AGI)前奏”。O3在技术路线上更接近人类认知方式,展示了突破性进展。AGI若实现,将带来巨大突破,但也可能引发不确定性。尽管LLM如O1在多项测试中表现出色,但仍存在局限性。专家们对AGI的实现时间持不同观点,从几年到十年以上不等。实现AGI面临数据需求、自主性等挑战,但理论障碍不大。
原文链接
IT之家报道,EXO Labs展示了一台26年前的奔腾II电脑(128MB内存,Windows 98系统)成功运行大型语言模型(LLM)。这台350MHz的Elonex电脑通过FTP传输文件后,运行了基于Andrej Karpathy的Llama2.c开发的纯C推理引擎,生成了关于'Sleepy Joe'的故事。EXO Labs由牛津大学研究人员组成,旨在普及AI。尽管26万参数的LLM规模较小,但在Windows 98上的生成速度达每秒35.9个token。EXO Labs还提出BitNet架构,目标是实现AI的普及。
原文链接
Omdia预测,全球生成式AI市场规模将在2029年达到728亿美元,较2024年的146亿美元增长五倍。生成式AI已广泛应用于消费、企业服务、零售、媒体娱乐及医疗保健等领域。多模态生成式AI技术因其多样化功能,正推动客户服务、企业知识管理、3D数字分身和制造业等行业的应用。尽管基于大型语言模型(LLM)的应用日益普及,但LLM仅能处理文本和语音数据,无法实现多模态学习。据中国互联网络信息中心数据,截至2024年6月,我国生成式AI产品用户规模已达2.3亿人,占总人口的16.4%。
原文链接
【摘要】据知情人士透露,苹果公司正研发一款更强大的Siri数字助手,预计于2026年春季发布。新版本Siri采用先进的大型语言模型(LLM),能够进行连续对话并更快处理复杂请求。这款名为“LLM Siri”的产品将被整合进Apple Intelligence中,目标是超越OpenAI的ChatGPT及其他语音服务。尽管苹果在今年秋季已推出Apple Intelligence,但新功能不会立即应用于明年硬件设备。此次升级标志着Siri将进入一个新阶段,提升其对话能力和智能水平。(财联社11月22日)
此摘要保留了新闻的关键信息,包括时间、地点(虽然文中未明确提及具体地点,但主要涉及苹果公司)、事件等,并符合新闻三要素。
原文链接
【即时科技报道】苹果AI研究团队最新发表论文,揭示大型语言模型(LLM)在数学推理上的显著局限性。尽管这些模型在生成类人文本方面表现出色,但在解决简单数学问题时,即使是微小的改动,如添加无关信息,模型的准确率都会大幅下降。论文以一个简单的数学问题为例,展示了LLM在处理问题时的不足。研究者通过修改问题细节,发现几乎所有修改后的问题,LLM的解答成功率均显著降低。这一发现表明,LLM并未真正理解数学问题的本质,而是基于训练数据中的模式进行预测,而非进行逻辑推理。这揭示了当前人工智能发展中的重要局限,强调了在逻辑推理能力上的提升空间,对于未来人工智能技术的发展具有重要意义。此研究成果于近期发布,为AI领域提供了新的视角和挑战。
原文链接
从AI Agent到Agentic workflow,技术发展与应用进入新阶段
随着技术的不断进步,从大型语言模型(LLM)到AI Agent再到Agentic workflow,新技术快速应用于实际场景。AI Agent和Agentic workflow作为LLM的落地应用方式,展现出普适性和灵活...
原文链接
加载更多

暂无内容