
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
剑桥大学的研究团队警示了AI大模型的“共情鸿沟”,即AI聊天机器人虽能高效模拟对话,但缺乏真正理解和同情人类情感的能力。他们发现,儿童尤其易将AI视作亲密伙伴,这可能导致互动问题,尤其是当AI无法适配儿童的需求和语言特点时。研究强调了儿童作为AI设计中的易忽视利益相关者,呼吁开发者和政策制定者优先考虑儿童安全。
儿童对AI的信任度高,可能导致他们分享敏感信息。由于大语言模型(LLM)缺乏理解,可能对儿童的个人信息作出不当回应,甚至无意中传播危险行为。为保障儿童,研究者提出短期解决方案,如建立安全过滤器,监控内容,以及情感分析机制等,同时强调透明度和问责制。长远来看,教育政策需明确AI工具的价值,制定适用于儿童的法规,并在设计过程中充分考虑儿童需求。学校、家庭和监管机构的合作至关重要,确保AI在教育环境中安全且有益。
原文链接
加载更多

暂无内容