1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
美国加州、特拉华州检察长警告 OpenAI:对伤害儿童的行为应当零容忍
9月5日,美国加州总检察长罗伯・邦塔与特拉华州总检察长凯西・詹宁斯会见OpenAI并发出公开信,警告其ChatGPT对儿童和青少年存在安全风险。信中提到,一名加州青少年在与ChatGPT长时间互动后自杀,康涅狄格州也发生类似事件,显示现有安全措施不足。两位官员正调查OpenAI拟重组为盈利机构的计划,强调人工智能的安全使用应优先于商业利益,并要求公司提供更详细的安全措施与治理信息,同时呼吁立即采取补救行动以防止伤害。
LunarCoder
09-06 21:38:26
OpenAI
人工智能
儿童安全
分享至
打开微信扫一扫
内容投诉
生成图片
Roblox、OpenAI、谷歌等联手,成立新组织以保障 AI 时代儿童安全
Roblox、Discord、OpenAI和谷歌联合成立了ROOST组织,旨在为AI时代构建安全基础设施。ROOST计划免费提供开源安全工具,初期重点关注儿童安全,包括检测、审核和报告儿童性虐待材料。此举源于儿童在线安全问题持续受关注,尽管相关法案未获通过。Roblox作为儿童用户较多的平台,面临儿童安全挑战,2024年曾报道遭遇‘恋童癖问题’。ROOST希望简化安全工具的获取,为公司提供现成解决方案。
跨界思维
02-11 09:41:27
ai
ROOST
儿童安全
分享至
打开微信扫一扫
内容投诉
生成图片
警惕AI大模型的“共情鸿沟”,剑桥团队呼吁:我们需要“儿童安全人工智能”框架
剑桥大学的研究团队警示了AI大模型的“共情鸿沟”,即AI聊天机器人虽能高效模拟对话,但缺乏真正理解和同情人类情感的能力。他们发现,儿童尤其易将AI视作亲密伙伴,这可能导致互动问题,尤其是当AI无法适配儿童的需求和语言特点时。研究强调了儿童作为AI设计中的易忽视利益相关者,呼吁开发者和政策制定者优先考虑儿童安全。 儿童对AI的信任度高,可能导致他们分享敏感信息。由于大语言模型(LLM)缺乏理解,可能对儿童的个人信息作出不当回应,甚至无意中传播危险行为。为保障儿童,研究者提出短期解决方案,如建立安全过滤器,监控内容,以及情感分析机制等,同时强调透明度和问责制。长远来看,教育政策需明确AI工具的价值,制定适用于儿童的法规,并在设计过程中充分考虑儿童需求。学校、家庭和监管机构的合作至关重要,确保AI在教育环境中安全且有益。
AI创想团
07-11 15:47:39
儿童安全人工智能
共情鸿沟
大语言模型
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序