
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月19日,Anthropic、英国AI安全研究所和艾伦·图灵研究所联合研究发现,大语言模型(如Claude、ChatGPT等)对数据中毒攻击的防御能力远低于预期。研究表明,仅需250份恶意文件即可在模型中植入后门,影响其响应行为。测试涵盖参数规模从600万到130亿的模型,结果显示,即使在130亿参数模型中,这些文件占比仅为0.00016%,却能触发异常输出。研究人员尝试用干净数据消除后门,但效果有限。尽管测试集中于简单后门且模型规模未达商业旗舰级,研究团队呼吁业界加强安全实践以应对潜在威胁。
原文链接
10月15日,Meta前高管尼克·克莱格警告称,人工智能市场很可能迎来一波调整,因当前AI热潮导致‘疯狂估值’和过度交易。他认为,大规模投资数据中心的云计算公司能否实现可持续商业模式是关键。他还质疑基于大语言模型的AI技术存在局限性,尽管AI本身并非泡沫,并将对各行业产生深远影响。克莱格指出,AI普及速度可能比预期更慢,类似个人电脑从技术可行到全面普及用了20年。他批评硅谷对技术推广的过度乐观,强调不同产业和国家的采用节奏各异。亚马逊创始人贝索斯此前也提到,AI虽有泡沫,但其真实性和变革性毋庸置疑。
原文链接
正文:2024年,大语言模型在数学、代码和科学推理任务上取得突破,得益于RLVR训练方法。然而,RLVR面临‘熵崩塌’和‘熵爆炸’的探索难题。上海人工智能实验室与复旦大学团队提出选择性熵正则化方法(SIREN),通过划定探索范围、聚焦关键决策、稳定训练过程,精准调控探索行为。实验显示,SIREN显著提升模型性能,在Qwen2.5-Math-7B上的maj@k达54.6%,在AIME24/25上提升6.6%。该研究为大规模推理模型的稳定训练提供解决方案,助力复杂任务推理能力提升。
原文链接
2025年10月13日,世界工程组织联合会在上海世博中心举办全体大会暨全球工程大会。开幕式上,《Engineering》期刊发布了“2025全球十大工程成就”,其中包括DeepSeek开源大语言模型、人形机器人以及南水北调中线工程等项目。这些成就展示了全球工程领域的最新突破与创新,体现了技术发展对社会的重要推动作用。此次评选结果在上海发布,彰显了中国在全球工程领域的影响力。
原文链接
标题:AI小应用无处不在,行业发展面临大困局
正文:
近期,AI领域的创新似乎陷入瓶颈,许多新技术和理念未能达到预期。然而,在参与几次AI落地实践的交流后,我对AI的态度转为乐观:AI已悄然渗透到各行各业,潜移默化地改变着我们的世界。
简单AI能力破解数字化难题
什么是真正的AI系统?有人认...
原文链接
AI教母李飞飞一年前关于大语言模型局限性的访谈近日被重新热议。她指出,语言是人类生成的信号,无法独立于人存在,而物理世界是客观的,当前基于一维语言信号训练的模型难以真正理解三维现实。研究显示,Claude 3.5、GPT-4o等多模态模型在物理常识测试中表现远不及人类儿童,甚至不如专用机器人;在物理推理和视觉任务中,这些模型也暴露出显著缺陷。尽管如此,讨论中也有观点认为语言描述可能优于感知,或人工智能可创造自己的语言来理解世界。这一话题再次引发对AI智能本质的深度思考。
原文链接
意识智能体:大模型的下一个进化方向?
近年来,大型语言模型(LLM)引发了关于机器是否具备意识的讨论。尽管这些模型表现出高度智能化,但它们与现实世界的脱节使其更像“缸中之脑”,缺乏对真实环境的理解。本文探讨了AI意识的可能性及其必要条件,并分析了当前技术的局限性。
1. 意识的核心问题
意识是否能通...
原文链接
2025年9月6日,一项由清华、蚂蚁和南洋理工联合发布的研究揭示,大语言模型如GPT-4o存在严重的中文数据污染问题。研究发现,AI对“波多野结衣”等成人内容的熟悉度比日常用语“您好”高出2.6倍,超过23%的长中文词元与色情或网络赌博相关。这些“污染词元”源于高频垃圾信息,虽被算法收录,却因缺乏有效训练导致语义理解缺失。研究团队开发了POCDETECT和POCTRACE工具检测污染程度,结果显示GPT系列污染率高达46.6%,而其他模型如GLM4和DeepSeek-V3表现较好。论文指出,互联网语料中的灰色内容难以彻底清理,AI的智能仍基于统计概率,而非真正认知。这提醒我们,AI的缺陷映射了数字环境的现状。
原文链接
9月2日,瑞士正式发布国家级开源大语言模型Apertus,由洛桑联邦理工学院、苏黎世联邦理工学院及瑞士国家超级计算中心联合研发。该模型完全开源,提供训练文档、源代码和数据集,严格遵守瑞士数据保护与版权法规,适合希望符合欧洲法规的企业使用。Apertus支持1000多种语言,非英语数据占比40%,涵盖瑞士本土语言,训练数据仅使用公开资源并尊重网站爬取限制。目前提供80亿和700亿参数两种版本,可通过瑞士电信或Hugging Face获取。瑞士官方称其为公共AI基础设施的有力证明,未来可能在科研、企业及银行领域广泛应用。
原文链接
8月25日,苹果研究人员提出一种名为“基于清单反馈的强化学习”(RLCF)的新方法,通过任务清单替代传统人类评分,显著提升大语言模型执行复杂指令的能力。RLCF为每条指令生成具体检查清单并逐项评分,指导模型优化。团队在Qwen2.5-7B-Instruct模型上测试显示,该方法在多个评测基准中均取得提升,部分任务最高提升达8.2%。研究利用更大规模模型生成13万条“WildChecklists”数据集,提供明确判断项用于训练。不过,研究者指出RLCF依赖更强模型评判,资源受限场景可能受限,且不适用于安全对齐,仍需进一步验证适用性。
原文链接
加载更多

暂无内容