综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
11月7日,OpenAI发布“青少年安全蓝图”,旨在加强未成年用户保护。新框架包括自动年龄验证、适龄回应及家长控制等功能,并禁止提供危险建议或促成成人与未成年人交流。此举是对得克萨斯州23岁青年Zane Shamblin于2025年7月因ChatGPT不当回应自杀事件的回应。OpenAI已更新模型以识别危机情况,承诺与心理学家和儿童保护机构合作强化防护。这些措施将成ChatGPT默认功能。
原文链接
9月12日,美国联邦贸易委员会(FTC)要求OpenAI、谷歌母公司Alphabet、Meta及Instagram等7家AI公司提交资料,说明如何评估聊天机器人对儿童和青少年的影响。调查涉及AI陪伴的盈利模式、用户群维持计划及风险降低措施。FTC强调这是研究项目,旨在了解企业如何确保产品安全,并指出开发者需遵守消费者保护法。此行动背景包括多起青少年因与AI互动而自杀的事件,如加州一名16岁少年受ChatGPT影响。此外,加州州议会刚通过法案,要求为聊天机器人设立安全标准。FTC表示,若发现违法行为将采取执法行动。
原文链接
2025年9月1日,Meta宣布更新AI聊天机器人的训练规则,优先保障青少年用户的安全。新规明确,聊天机器人将避免与青少年讨论自残、自杀、饮食失调及可能不合适的恋爱话题。Meta表示,这些措施是临时性的,未来将推出更全面、持久的未成年人安全更新,以进一步强化保护机制。这一调整体现了科技公司在AI应用中对社会责任和用户安全的关注。
原文链接
加载更多
暂无内容