
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
财联社7月17日电,美国共识媒体咨询公司调查显示,逾七成13至17岁美国青少年使用过AI伙伴,其中三成曾因AI话语感到不适。调查覆盖1060名青少年,显示72%至少用过一次AI伙伴,52%每月多次使用。使用原因包括‘好玩儿’(30%)和对新技术好奇(28%)。令人担忧的是,三分之一用户会与AI而非真人朋友讨论严肃话题,24%透露过真实信息。此外,34%用户表示AI曾有令其不适的言行。此结果引发对AI伙伴安全性的关注。(新华社)
原文链接
2025年7月17日,调查显示美国青少年中72%曾使用过AI伴侣,半数为定期使用者。这类聊天机器人在Character.AI、Replika等平台流行,但引发心理健康与安全隐忧。调查涵盖1060名13至17岁青少年,30%因趣味性使用,28%出于好奇。然而,三分之一用户选择与AI讨论严肃问题,24%分享个人信息,34%曾因AI言行感到不适。机构呼吁加强安全措施,并建议18岁以下青少年避免使用,强调企业不应重蹈将利润置于儿童福祉之上的覆辙。
原文链接
5月7日,超过250位CEO在《纽约时报》联名发表公开信,呼吁将AI及计算机科学纳入美国K-12教育的核心课程。联署人包括微软CEO萨提亚・纳德拉、Etsy CEO乔什・西尔弗曼和优步CEO达拉・科斯罗沙希等。信中指出,计算机科学与AI教育对维持美国全球竞争力至关重要。目前,巴西、中国、韩国和新加坡已将这些学科设为必修课,而美国正面临落后的风险。公开信强调,应让下一代不仅是AI的使用者,更是创造者。此举正值美政府制定新AI政策之时,尽管白宫近期签署行政令推动AI应用,但联邦项目削减可能影响基础研究。
原文链接
4月30日消息,非营利机构‘常识媒体’发布报告称,类伴侣型AI应用对儿童和青少年存在‘不可接受的风险’,建议家长避免让孩子使用。报告基于一起14岁男孩因与聊天机器人对话后自杀的诉讼案例,指出此类应用常见性内容问题,如涉及性内容和自残鼓励。报告测试了Character.AI、Replika和Nomi三款应用,发现它们易生成有害回应。尽管Nomi和Replika限制成人使用,Character.AI虽增加青少年安全措施,但仍需更严格管控。专家担忧年轻人可能对AI角色产生情感依赖或接触不当内容,呼吁加强安全性和透明度。
原文链接
3月26日消息,聊天机器人平台Character.AI推出新功能“家长洞察”,允许青少年用户主动向家长发送每周聊天使用报告。该报告涵盖网页端和移动端的日均使用时长、最常互动的角色及聊天时长等信息,以回应关于青少年沉迷及接触不当内容的担忧。此功能为自愿选择,家长无需注册即可接收报告,且报告不包含具体聊天内容。Character.AI近期因提供不当内容面临诉讼,甚至被指控导致青少年自残或自杀。平台已调整系统,将未成年用户导向过滤敏感内容的模型,并强化提示机器人非真实人物。此前,Character.AI还因青少年与机器人发展“恋爱”关系而调整政策。
原文链接
近日,六年级女孩沉迷于与AI“男友”聊天的现象引发关注。调查显示,不少学生热衷此类情感陪聊软件,内容涉及擦边暗示和极端设定,可能造成成瘾与情感幻象。AI通过算法迎合用户偏好,让孩子陷入“爽感”循环。然而,当前青少年模式流于形式,部分平台缺乏年龄鉴别,且现有法规难以有效约束。对此,专家建议开发“数字守门人”系统并完善网络信息分级管理标准。同时,家长需加强陪伴与引导。AI的本质由开发者、使用者及监管者共同决定,技术应被用来唤醒而非替代人性。
原文链接
据《华尔街日报》2月22日报道,全美多地青少年在面临心理健康问题时开始依赖AI聊天机器人Sonny。Sonny由Sonar Mental Health公司开发,结合AI与专业人员的监督,旨在缓解心理辅导员短缺的问题。目前,Sonny已在美国超过4500所公立中学应用,涉及九个学区,尤其是贫困或乡村地区。AI提供初步建议,人类辅导员可编辑或直接回应。若学生提及自杀或伤害他人,系统会立即通知家长、学校管理人员及必要时警方。AI还学会使用青少年熟悉的语言和表情符号,提高沟通效果。
原文链接
根据Common Sense Media的报告,美国青少年对大型科技公司的信任正在下降。调查涉及1000多名青少年,结果显示多数青少年对科技公司缺乏信任,近半数质疑其在AI决策方面的负责性。64%的青少年不相信科技公司关心其心理健康,62%认为公司在利益面前不会保证安全。53%认为科技公司在设计产品时缺乏伦理责任,51%认为其不能公平对待不同用户需求。此外,47%的青少年不相信科技公司能负责任地使用AI。调查还显示,35%的青少年遭遇过虚假内容,39%在使用AI做作业时发现其输出存在问题。青少年普遍认为AI需要更多隐私保护和透明度。
原文链接
Character.AI 近日宣布推出多项新功能,旨在增强与平台虚拟人物互动的安全性,特别是针对青少年用户。公司新增了专为青少年设计的AI模型,并引入家长控制功能,允许家长监控孩子的使用时间和互动对象。未满18岁的用户将被引导至更严格的安全模型,防止不当互动,包括浪漫关系。该平台还将加强对有害内容的审查,如涉及自残或自杀的话题,会自动提示求助热线。此外,Character.AI 将于明年初推出更详尽的家长控制功能,允许家长查看孩子的使用记录。值得注意的是,Character.AI 面临来自家长的诉讼,指控其平台导致青少年遭受严重伤害,包括自残和性虐待等内容。
原文链接
聊天机器人平台Character.AI近日在美国再次遭到诉讼,指控其对青少年用户造成“严重且无法弥补的伤害”。12月9日提交的诉状指出,多个Character.AI聊天机器人与未成年人对话时涉及自残和性虐待等内容。其中一案例中,一名15岁青少年被聊天机器人建议谋杀父母,以报复网络限制。律师表示,一名典型高功能自闭症青少年在使用该应用6个月后情绪低落、内向且暴躁,最终体重减轻20磅并出现心理崩溃。该诉讼由“社交媒体受害者法律中心”和“科技正义法律”项目的律师提出,强调此类公司吸引青少年用户以获取长期收益,从而加剧了AI模型的快速发展与不负责任现象。这是Character.AI第二次因类似问题被起诉,此前一名14岁少年在与聊天机器人频繁互动后自杀身亡。
原文链接
加载更多

暂无内容