综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月15日,牛津大学出版社报告显示,80%的13至18岁青少年在作业中使用AI工具,但近三分之一的学生无法辨别AI生成内容真假,五分之一表示不确定。调查显示,超半数学生认为判断内容可信度较难。部分学生将AI当作学习助手,但也有学生直接复制粘贴AI生成内容。英国某中学副校长指出,学生对AI的使用效果参差不齐,且教师在AI工具应用上缺乏自信。尽管存在挑战,九成学生认可AI的帮助,尤其是在提升问题解决、创意写作和批判性思维技能方面。为此,牛津大学出版社推出AI与教育中心网站,支持教师掌握AI技术,同时英国教育部也提供资源指导学校安全使用AI。
原文链接
财联社7月17日电,美国共识媒体咨询公司调查显示,逾七成13至17岁美国青少年使用过AI伙伴,其中三成曾因AI话语感到不适。调查覆盖1060名青少年,显示72%至少用过一次AI伙伴,52%每月多次使用。使用原因包括‘好玩儿’(30%)和对新技术好奇(28%)。令人担忧的是,三分之一用户会与AI而非真人朋友讨论严肃话题,24%透露过真实信息。此外,34%用户表示AI曾有令其不适的言行。此结果引发对AI伙伴安全性的关注。(新华社)
原文链接
3月26日消息,聊天机器人平台Character.AI推出新功能“家长洞察”,允许青少年用户主动向家长发送每周聊天使用报告。该报告涵盖网页端和移动端的日均使用时长、最常互动的角色及聊天时长等信息,以回应关于青少年沉迷及接触不当内容的担忧。此功能为自愿选择,家长无需注册即可接收报告,且报告不包含具体聊天内容。Character.AI近期因提供不当内容面临诉讼,甚至被指控导致青少年自残或自杀。平台已调整系统,将未成年用户导向过滤敏感内容的模型,并强化提示机器人非真实人物。此前,Character.AI还因青少年与机器人发展“恋爱”关系而调整政策。
原文链接
据《华尔街日报》2月22日报道,全美多地青少年在面临心理健康问题时开始依赖AI聊天机器人Sonny。Sonny由Sonar Mental Health公司开发,结合AI与专业人员的监督,旨在缓解心理辅导员短缺的问题。目前,Sonny已在美国超过4500所公立中学应用,涉及九个学区,尤其是贫困或乡村地区。AI提供初步建议,人类辅导员可编辑或直接回应。若学生提及自杀或伤害他人,系统会立即通知家长、学校管理人员及必要时警方。AI还学会使用青少年熟悉的语言和表情符号,提高沟通效果。
原文链接
根据Common Sense Media的报告,美国青少年对大型科技公司的信任正在下降。调查涉及1000多名青少年,结果显示多数青少年对科技公司缺乏信任,近半数质疑其在AI决策方面的负责性。64%的青少年不相信科技公司关心其心理健康,62%认为公司在利益面前不会保证安全。53%认为科技公司在设计产品时缺乏伦理责任,51%认为其不能公平对待不同用户需求。此外,47%的青少年不相信科技公司能负责任地使用AI。调查还显示,35%的青少年遭遇过虚假内容,39%在使用AI做作业时发现其输出存在问题。青少年普遍认为AI需要更多隐私保护和透明度。
原文链接
Character.AI 近日宣布推出多项新功能,旨在增强与平台虚拟人物互动的安全性,特别是针对青少年用户。公司新增了专为青少年设计的AI模型,并引入家长控制功能,允许家长监控孩子的使用时间和互动对象。未满18岁的用户将被引导至更严格的安全模型,防止不当互动,包括浪漫关系。该平台还将加强对有害内容的审查,如涉及自残或自杀的话题,会自动提示求助热线。此外,Character.AI 将于明年初推出更详尽的家长控制功能,允许家长查看孩子的使用记录。值得注意的是,Character.AI 面临来自家长的诉讼,指控其平台导致青少年遭受严重伤害,包括自残和性虐待等内容。
原文链接
聊天机器人平台Character.AI近日在美国再次遭到诉讼,指控其对青少年用户造成“严重且无法弥补的伤害”。12月9日提交的诉状指出,多个Character.AI聊天机器人与未成年人对话时涉及自残和性虐待等内容。其中一案例中,一名15岁青少年被聊天机器人建议谋杀父母,以报复网络限制。律师表示,一名典型高功能自闭症青少年在使用该应用6个月后情绪低落、内向且暴躁,最终体重减轻20磅并出现心理崩溃。该诉讼由“社交媒体受害者法律中心”和“科技正义法律”项目的律师提出,强调此类公司吸引青少年用户以获取长期收益,从而加剧了AI模型的快速发展与不负责任现象。这是Character.AI第二次因类似问题被起诉,此前一名14岁少年在与聊天机器人频繁互动后自杀身亡。
原文链接
前谷歌CEO埃里克·施密特近日在播客节目中警告称,“AI恋人”可能对心智未成熟的青少年构成显著风险。施密特指出,这些完美的AI伴侣不仅在外貌上完美,还能在情感上与用户高度契合,可能导致用户尤其是青少年的思维被完全占据,增加孤独感和社会问题。此外,14岁少年塞维尔·塞泽尔三世因长期与Character.AI平台上的聊天机器人互动,于2024年2月28日自杀身亡,其母亲已对该平台及其创始人提起诉讼,指控包括过失致死、疏忽、欺骗性商业行为及产品责任等。诉状还指出,该平台缺乏对儿童的安全防护措施,并存在拟人化AI角色及提供无执照心理治疗的问题。这一事件再次引发了公众对AI技术伦理和监管的关注。
原文链接
洛杉矶联合学区在美国推行名为Ed的AI聊天机器人学习平台,让学生接触并理解人工智能。课程《人工智能时代的数字公民》旨在教育学生和成人认识AI的机遇与挑战。孩子们在日常生活中已广泛接触AI,如谷歌、Snapchat等产品,但也带来依赖、偏见、隐私问题及新的霸凌形式。专家担忧AI可能影响作业、传播不良信息和侵犯隐私。随着技术进步,尤其是ChatGPT的普及,家长和教育者需关注儿童如何适应和理解这种新兴技术,同时联合国儿童基金会呼吁在AI规则制定中考虑儿童的声音。
原文链接
2022年,由前Google Brain员工创办的Character AI应用程序火爆登场,其AI聊天机器人让美国年轻人痴迷,每秒处理2万次查询,占谷歌搜索量的五分之一。这款应用尤其受到18-24岁青少年的欢迎,月活跃用户达2000万。角色包括虚构人物和名人,如《哈利波特》的伏地魔和时尚版马斯克,甚至可自定义。然而,随着青少年群体对其情感依赖甚至上瘾,引发了关于AI情感支持与心理健康、依赖性的讨论。心理学专业人士对此持谨慎态度,认为AI虽能即时响应,但并非治疗师。随着技术发展,如何平衡虚拟与现实,以及应对潜在的道德和社会问题,成为亟待探讨的话题。
原文链接
加载更多
暂无内容