
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
OpenAI提出了一种名为“深思熟虑的对齐”(Deliberative Alignment)的新方法,旨在提升AI模型的安全性。该方法通过训练模型在生成响应前推理安全规范,分为监督微调(SFT)和强化学习(RL)两个阶段。新方法已在o系列模型中取得显著成效,如o1模型在StrongREJECT基准测试中的得分为0.88,远超GPT-4o的0.37。这为解决大语言模型的伦理挑战提供了可扩展且可解释的方案。
原文链接
摘要:
OpenAI正经历着一场内部动荡,核心人物的频繁变动引发了对AI安全与商业化的深刻探讨。联合创始人兼对齐主管John Schulman离职,加盟竞争对手Anthropic,而总裁Greg Brockman则宣布长期休假。这系列事件凸显了OpenAI在追求商业化与确保AI安全之间面临的抉择困...
原文链接
加载更多

暂无内容