1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:OpenAI华人科学家翁荔:如何培养出聪明且安全的AI技术

AI如何变得更加安全?

近日,华人青年科学家、OpenAI研究副总裁翁荔在2024Bilibili超级科学晚上发表了题为《AI安全与“培养”之道》的演讲。她强调,AI技术的发展需要用心引导和教育,确保其服务人类并保障安全。

翁荔指出,随着AI的智能化和自主化,确保其行为符合人类价值观至关重要。AI可能因数据偏见而变得狭隘,或因对抗性攻击而受质疑。因此,提供多样、全面、正确的数据,依赖多人标注的数据,以及基于强化学习(RL)和基于人类反馈的强化学习(RLHF),通过奖惩机制训练AI,都是确保AI安全的重要手段。

翁荔毕业于北京大学数字人文实验室,曾任Facebook研究员,并是OpenAI的华人科学家和ChatGPT的贡献者之一。她在OpenAI的主要工作包括预训练、强化学习和模型安全。

翁荔强调,AI安全需要每个人的参与。通过思维链推理和扩展性研究,可以提升AI的可靠性和监督。AI安全不仅是研究者的责任,每个人都可以参与其中,共同影响AI的成长。

她以数据偏见为例,指出很多疾病研究的数据以男性为主,导致AI在处理女性健康问题时可能产生偏差。为此,提供高质量标注的数据尤为重要。基于人类反馈的强化学习(RLHF)技术通过奖惩机制训练AI,类似训练小狗,帮助AI更好地理解和执行任务。

在文档写作和视频音乐制作中,设定背景、角色和关键词,可以帮助AI更好地理解用户意图。同时,通过细致指导和情感融入,可以提升AI创作的质量和感染力。

翁荔认为,给AI设定安全准则和道德标准,类似于孙悟空的紧箍咒,有助于约束其行为。AI需要学习基本原则和道德准则,以应对复杂问题并得出正确结论。

扩展性监督在AI研究中也很重要。通过监督学习训练语言模型,可以有效提高AI的准确性和可靠性。最终,AI的安全不仅依赖研究者,还需要每个人的参与。

翁荔呼吁大家成为AI的监督者,共同塑造一个安全可信的AI世界。AI技术是一把双刃剑,需要我们共同努力,培养出既聪明又负责的AI伙伴。

(本文首发于钛媒体App,作者|林志佳,编辑|胡润峰)

原文链接
本文链接:https://kx.umi6.com/article/8244.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
大模型RL不止数学代码!7B奖励模型搞定医学法律经济全学科, 不用思维链也能做题
2025-04-02 17:34:52
120天,OpenAI能“止杀”吗?
2025-09-04 21:09:10
Epoch AI 预言:最快 1 年内,推理模型步伐将放缓
2025-05-14 09:09:06
英伟达发布新 RL 范式:受 DeepSeek-R1 启发,重塑 AI 模型外部工具能力
2025-05-14 15:16:49
迁移DeepSeek-R1同款算法,小米让7B模型登顶音频理解推断MMAU榜单
2025-03-17 12:34:27
前 OpenAI 工程师 Calvin 长文回顾工作经历:员工一年间暴增 2000 人,产品发布节奏迅猛
2025-07-16 16:04:42
性能提升84%-166%!L-Zero仅靠强化学习解锁大模型探索世界的能力 | 已开源
2025-07-01 15:26:33
Meta 开源 LlamaFirewall 防护工具,助力构建安全 AI 智能体
2025-05-09 14:52:36
稚晖君机器人“葡萄缝针”神技再现江湖 这次是人形的
2025-03-11 23:55:21
万字梳理:揭秘 DeepSeek 中的 RL 与 AGI 下一步丨AIR 2025
2025-03-08 11:48:22
英伟达推出 ProRL 方法:强化学习训练至 2000 步,打造全球最佳 1.5B 推理 AI 模型
2025-06-05 15:52:55
文生图进入R1时代:港中文发布T2I-R1,让AI绘画“先推理再下笔”
2025-05-14 17:20:57
“AI教父”本吉奥再出山:宣布开发Scientist AI 试图为AI造“护栏”
2025-06-04 16:30:14
24小时热文
更多
扫一扫体验小程序