剑桥大学的研究团队警示了AI大模型的“共情鸿沟”,即AI聊天机器人虽能高效模拟对话,但缺乏真正理解和同情人类情感的能力。他们发现,儿童尤其易将AI视作亲密伙伴,这可能导致互动问题,尤其是当AI无法适配儿童的需求和语言特点时。研究强调了儿童作为AI设计中的易忽视利益相关者,呼吁开发者和政策制定者优先考虑儿童安全。
儿童对AI的信任度高,可能导致他们分享敏感信息。由于大语言模型(LLM)缺乏理解,可能对儿童的个人信息作出不当回应,甚至无意中传播危险行为。为保障儿童,研究者提出短期解决方案,如建立安全过滤器,监控内容,以及情感分析机制等,同时强调透明度和问责制。长远来看,教育政策需明确AI工具的价值,制定适用于儿童的法规,并在设计过程中充分考虑儿童需求。学校、家庭和监管机构的合作至关重要,确保AI在教育环境中安全且有益。
原文链接
本文链接:https://kx.umi6.com/article/3177.html
转载请注明文章出处
相关推荐
换一换
大模型来了,你要裁员吗?
2024-07-12 08:41:18
Agent是“新瓶装旧酒”,氛围编码不值得尝试?
2025-05-08 14:32:22
从归因图到AI 的“生物学”:探索Claude3.5 Haiku 的内部机制“中”
2025-06-01 15:22:01
科学家发现多数大语言模型测试标准存在缺陷,无法客观给出评分
2025-11-08 21:59:46
美国哥伦比亚大学研究:大语言模型正在变得越来越像人类大脑
2024-12-20 11:27:54
《自然》杂志研究:AI 追踪他人心理状态能力与人类相当或超越人类
2024-05-27 09:13:10
从蛰伏到王炸,RL启示录
2025-03-25 19:11:14
大语言模型火爆的今天,我们为什么还要拥抱世界模型?
2025-04-10 20:08:01
李飞飞一年前究竟说了啥?怎么又火了
2025-09-11 14:55:23
2000美元一只“草莓”,OpenAI 新模型价格挑战用户底线?
2024-09-06 21:00:01
嚯!大语言扩散模型来了,何必只预测下一个token | 人大高瓴&蚂蚁
2025-02-18 13:14:03
DeepSeek使用技巧,你收藏这一篇就够了
2025-02-07 21:09:11
阿里AI TO C 业务启动近千人招聘
2025-08-13 16:39:25
659 文章
430121 浏览
24小时热文
更多
-
2026-01-23 00:20:44 -
2026-01-22 23:18:34 -
2026-01-22 23:17:29