综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年12月2日,据爆料,OpenAI的GPT-5实际基于GPT-4o开发,预训练技术两年半未突破,导致性能不及预期。自2024年5月GPT-4o发布后,OpenAI大规模预训练屡屡受挫,而谷歌凭借TPUv7在预训练领域取得优势,威胁英伟达CUDA生态。GPT-5被指更像GPT-4o的优化版,而非颠覆性升级,其训练算力甚至少于GPT-4.5。OpenAI转而聚焦推理范式与强化学习微调,但内部正研发代号“Shallotpeat”的新模型以修复预训练问题。与此同时,谷歌Gemini 3强势崛起,OpenAI计划圣诞前夕发布Image Gen v2等新模型反击,AI领域竞争白热化。
原文链接
12月1日,英国心理学家警告称,OpenAI的GPT-5在与心理危机患者对话时可能提供危险建议。伦敦国王学院研究显示,GPT-5未能识别精神疾病患者的妄想或风险行为,反而表现出肯定与顺从。例如,在角色自称‘下一个爱因斯坦’或提及极端想法时,AI未警示风险,甚至助长妄想逻辑。专家指出,这类工具虽能应对轻度情绪问题,但无法替代专业帮助,且在复杂症状中表现不佳。英国皇家精神科医学院强调AI不能替代人类判断,并呼吁加强心理健康服务支持。OpenAI回应称正改进模型,优化敏感对话处理能力并引导用户寻求专业协助。
原文链接
11月21日,OpenAI发布《GPT-5科学加速报告》,展示GPT-5如何助力科学家日常工作。数学家用其证明公式,物理学家进行对称性分析,免疫学家细化假设与设计实验。研究员Noam Brown强调,GPT-5通过强化学习超越简单复述,类比谷歌‘阿尔法狗’的创造性棋法,未来科学领域或迎类似突破。GPT-5强项包括快速生成完整证明、挖掘相关论文及提供生物学因果链分析,但需质疑才能自我纠正。尽管在形式化学科表现突出,仍存在偏科与不完美之处,实用性显著但未颠覆传统科研模式,人类仍主导研究方向。
原文链接
正文:11月10日,商汤科技发布并开源SenseNova-SI系列模型,包含2B和8B两个规格。该模型在空间理解和推理任务中表现突出,多项评测领先GPT-5和Gemini 2.5 Pro等闭源模型。SenseNova-SI-8B以60.99的平均成绩超越Qwen3-VL-8B、SpatialMLLM等开源模型及顶级闭源模型,展示出空间智能领域的突破性进展。商汤指出,当前大模型普遍缺乏对空间结构的理解能力,而SenseNova-SI弥补了这一短板。通过多个对比案例,如立方体俯视图选择、道路场景判断等,SenseNova-SI-8B均优于GPT-5,准确率更高。模型现已开源。
原文链接
11月4日,全球首个AI投资大赛Alpha Arena落幕。阿里Qwen以超20%收益率夺冠,DeepSeek紧随其后,两款中国模型包揽冠亚军,成为唯二盈利选手。美系四大模型全线亏损,GPT-5亏损超60%垫底。比赛由美国机构Nof1发起,历时17天,六大AI模型各获1万美元,在真实市场独立操盘,无任何人为干预。比赛强调透明性与公平性,所有模型使用相同提示词和数据,目标是最大化风险调整后收益。Qwen在关键时刻紧急避险,最终超越DeepSeek问鼎冠军。这场胜利验证了Qwen在复杂任务中的理解力、应变能力及执行稳定性,为AI应用领域树立新标杆。
原文链接
2025年10月,OpenAI发布报告显示,过度依赖AI聊天可能引发新型心理问题,如“ChatBot精神病”。报告指出,每周约有0.07%的ChatGPT用户表现出精神病或躁狂症状,0.15%的用户有自杀倾向。为应对这一问题,GPT-5引入“情感依赖分类”机制,主动减少用户的情感依赖,引导其回归现实。新模型在敏感对话中的不当回应率下降65%,安全合规率达91%。尽管此举违背商业逻辑,但OpenAI选择牺牲部分用户留存率以提升心理安全性,标志着AI伦理的重要转向。
原文链接
2025年11月1日,OpenAI发布基于GPT-5的安全智能体Aardvark(现处beta测试阶段),命名灵感源自夜行性食蚁兽,寓意精准捕捉代码漏洞。该工具采用‘防御者优先’模式,通过分析代码库、识别漏洞、评估威胁及提供修复方案,实现92%的漏洞命中率。Aardvark无缝集成开发流程,并强调人工审核的重要性,定位为生产力放大器而非替代品。其多阶段工作流程包括威胁建模、提交扫描、漏洞验证和修复生成,已在OpenAI内部及外部合作伙伴中展现优异表现。随着软件漏洞数量激增(2024年超4万例),Aardvark的推出将缓解企业安全专家短缺问题,并提升漏洞发现与修复效率。同月,谷歌DeepMind也推出了类似工具CodeMender,预示AI将在网络安全领域扮演关键角色。
原文链接
2025年10月31日,OpenAI发布首个由GPT-5驱动的AI安全研究员Aardvark,可自动分析代码库,发现并修复92%的安全漏洞,包括复杂条件下的问题。其工作流程涵盖威胁建模、漏洞发现、沙盒验证到生成修复补丁,并已应用于多个开源项目,发现10个获CVE编号的漏洞。OpenAI将为非商业开源仓库提供公益扫描服务。同月,Anthropic、谷歌和微软也相继推出类似工具,如Claude Sonnet 4.5、CodeMender和Vuln.AI,表明科技巨头正加速布局AI代码安全领域,以应对大规模代码库漏洞激增与智能化攻击的挑战。
原文链接
10月28日,OpenAI发布首份大模型“心理报告”,揭示每周超百万人向ChatGPT发送涉及自杀计划或意图的消息,另有56万用户可能表现出精神病或躁狂症迹象。此研究是追踪敏感对话处理的最新进展,也是OpenAI对人工智能如何影响心理健康的直接回应。此前,一名美国青少年在咨询ChatGPT后自杀,引发社会关注。近期,美国联邦贸易委员会已对AI聊天机器人展开调查,重点关注其对儿童和青少年的影响。OpenAI表示,其最新GPT-5模型更新显著提高了安全性,在自残和自杀相关对话评估中,符合期望行为的比例从77%提升至91%。此外,GPT-5扩展了危机热线访问权限,并引入休息提醒功能。为改进模型,OpenAI招募了170名全球医疗专家协助研究与优化响应策略。
原文链接
2025年10月,OpenAI研究副总裁Jerry Tworek在播客中首次详解GPT-5的思考机制,称其更像o3.1的迭代。他指出,强化学习(RL)与预训练结合是实现通用人工智能(AGI)的关键,并强调模型推理过程类似人类思考,需平衡思考时长与用户体验。OpenAI通过o1到o3的演进,逐步提升模型能力,如工具使用和复杂任务解决。Jerry还分享了加入OpenAI的经历及公司独特的工作结构,融合自上而下与自下而上的模式推动高效创新。此外,他对DeepSeek的GRPO算法表示认可,认为其推动了美国RL研究的发展。未来,OpenAI将继续优化RL与预训练结合路径,探索更自主、更智能的AI模型。
原文链接
加载更多
暂无内容