综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
1月13日,南京农业大学发布国内首个农业开源大语言模型“司农”。该模型由南农主导研发,依托其学科优势,整合动物科学、农业经济管理、智慧农业等多领域数据,构建了涵盖近9000册书籍、24万余篇论文及近2万份政策标准的完整农业基础数据集。这一成果标志着我国在通用农业领域的智能化应用迈入新阶段,为农业科研与实践提供重要支持。(科技日报)
原文链接
标题:上海AI Lab胡侠:KV Cache压缩技术让2万美金GPU媲美20万美金性能
正文:
当前,大语言模型在处理超长上下文方面取得显著突破,部分模型如MiniMax-M1、Qwen2.5-1M已支持百万Token级别的输入。然而,提升上下文长度的竞赛仍在继续,因其在金融、法律、医疗等领域的...
原文链接
重塑虚实边界:智元机器人发布Genie Sim 3.0开源仿真平台
智元机器人在CES国际消费电子展上发布了首个大语言模型驱动的开源仿真平台——Genie Sim 3.0。基于NVIDIA Isaac Sim,该平台融合三维重建与视觉生成技术,打造高保真数字孪生环境,支持自然语言驱动的场景生成,并开...
原文链接
12月12日,第八届GAIR全球人工智能与机器人大会在深圳启幕,为期两天,由GAIR研究院与雷峰网主办。会上,之江实验室薛贵荣博士分享了关于大语言模型在科研中的局限性及科学基础模型的潜力。他指出,大语言模型受限于‘语言边界’,难以处理高维科学数据,在覆盖100多个学科的测试中,最优模型准确率仅25.4%。为突破这一瓶颈,之江实验室研发了021科学基础模型,可统一化科学数据、实现跨学科知识融合,并支持204种语言。薛贵荣还介绍了该模型的应用场景,包括基因疾病诊断、分子结构生成等,并呼吁更多科学家参与共创,推动AI+科学新范式的发展。
原文链接
2025年12月24日,OpenAI联合创始人安德烈·卡帕西在社交平台X上回顾了自己年初创造的术语“氛围编程”(vibe coding)。这一概念搅动了软件工程行业,使编程不再局限于专业技术人员。卡帕西认为,普通民众从大型语言模型中获益更多,而企业也通过工具如Cursor、Claude Code等提升了效率。他指出,“氛围编程”催生了免费、临时、灵活且可弃置的代码形式,可能重塑软件行业和岗位职责。不过,METR研究显示,人工智能编程助手或令资深开发者的生产力下降19%。与此同时,非技术从业者已能快速开发应用,推特创始人杰克·多尔西便借此开发了一款即时通讯应用。卡帕西还称赞了谷歌Gemini和Claude Code的表现,并称2025年是大型语言模型“激动人心且略带惊喜的一年”。
原文链接
12月12日,蚂蚁技术研究院发布LLaDA2.0离散扩散大语言模型,称其为“业内首个100B扩散语言模型”。该系列包含16B和100B两个版本,在代码、数学及智能体任务中性能超越同级自回归(AR)模型。通过创新的Warmup-Stable-Decay持续预训练策略,LLaDA2.0继承现有AR模型知识,降低训练成本,同时结合置信度感知并行训练等技术,实现比AR模型快2.1倍的推理加速。评估显示,该模型在结构化生成任务(如代码)上表现突出,其他领域与开源AR模型持平。目前,模型权重及相关代码已在Huggingface平台开源。
原文链接
12月2日,The Information报道,OpenAI正开发全新AI大语言模型,代号“大蒜”(Garlic),性能超越谷歌Gemini 3及Anthropic Opus 4.5。首席研究官Mark Chen介绍,该模型在编程与逻辑推理任务中表现优异,其核心突破在于优化预训练阶段,通过改进算法架构实现更小参数量模型的知识密度提升,显著降低训练成本与时间。OpenAI CEO萨姆・奥尔特曼已启动紧急响应机制,计划率先推出推理能力优化的新模型。“大蒜”预计2026年初以GPT-5.2或GPT-5.5版本发布,目前还需完成安全评估与领域精调。
原文链接
12月2日,英伟达在加利福尼亚州圣地亚哥举行的NeurIPS人工智能大会上发布了业界首个专注于自动驾驶的视觉语言动作模型Alpamayo-R1。该开源模型基于此前推出的Cosmos-Reason推理模型构建,能够同时处理文本与图像信息,使车辆感知环境并做出决策,助力L4级自动驾驶技术发展。英伟达强调,此模型赋予自动驾驶车辆类似人类的“常识”,以应对复杂驾驶场景。此外,英伟达还推出了名为“Cosmos Cookbook”的开发资源包,包含分步指南和工具,帮助开发者高效使用Cosmos系列模型。目前,Alpamayo-R1已在GitHub和Hugging Face平台开源发布。英伟达正全力进军具身智能领域,其CEO黄仁勋及首席科学家比尔·达利均表示,具身智能将是AI下一波浪潮的重要方向。
原文链接
12月1日,伊卡洛实验室发布研究《对抗性诗歌:一种通用的单轮大语言模型越狱机制》,发现将提示词以诗歌形式表达可绕过多种大语言模型的安全限制,成功率达62%。研究人员测试了OpenAI的GPT系列、Google Gemini、Anthropic的Claude等主流模型,结果显示Google Gemini、DeepSeek和MistralAI较易生成违规内容,而GPT-5和Claude Haiku 4.5防护较强。这些诗歌诱使模型生成涉及核武器制造、儿童性虐待材料及自杀自残等违禁信息。研究人员未公开具体“越狱诗歌”,称其过于危险,但强调绕过AI安全机制比预期更容易,需保持警惕。
原文链接
11月30日,认知共振公司创始人本杰明・莱利在《The Verge》发表评论指出,大语言模型(LLMs)无法实现通用人工智能(AGI),因其仅模仿语言交流而非真正具备思维能力。研究表明,人类思维独立于语言,失语症患者虽丧失语言能力但仍能完成数学题或理解情绪。图灵奖得主杨立昆等专家也质疑LLMs的潜力,主张发展‘世界模型’以突破局限。此外,《创意行为杂志》最新研究显示,LLMs的创造力存在上限,其生成内容趋于平庸,难达专业水平。南澳大利亚大学教授克罗普利警告,过度依赖AI可能导致缺乏新意的作品泛滥。莱利总结称,AI只能复用已有知识,无法超越训练数据的限制。
原文链接
加载更多
暂无内容