综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
谷歌计划自下周起允许13岁以下儿童使用Gemini聊天机器人,但需通过家长管理的谷歌账户。家长可通过Family Link服务为孩子开通权限,Gemini为此类用户提供特殊防护措施,且谷歌承诺不会用儿童数据训练AI系统。此举正值AI竞争激烈之际,多家聊天机器人厂商正争取年轻用户群体。不过,当前AI技术仍有不足,可能带来潜在风险。此前,联合国教科文组织呼吁加强对AI使用的监管,包括设置年龄门槛及保护用户隐私。此政策将于下周生效,意味着谷歌将进一步扩大Gemini的服务范围。
原文链接
谷歌计划下周推出Gemini的“儿童版”,面向13岁以下、由家长管理账户的青少年用户。此版本允许孩子提问、写作业及创作故事。Gemini仅对使用谷歌Family Link服务的用户开放,家长需提供孩子姓名和出生日期等信息注册。为保障安全,Gemini设内容过滤机制避免生成不当内容,且谷歌承诺不会用儿童数据进行AI模型训练。谷歌提醒家长Gemini可能存在错误,建议培养孩子的批判性思维,并避免输入敏感信息。尽管有筛查措施,孩子仍可能接触不期望的内容。未来,谷歌将为家长提供Gemini的使用控制权限,包括关闭访问选项。时间:5月3日(IT之家)
原文链接
美国加利福尼亚州提出新法案SB 243,要求AI公司在儿童使用聊天机器人时定期提醒其非人类身份,旨在保护儿童免受AI造成的潜在危害。法案还限制易使人上瘾的互动模式,并要求AI公司提交年度报告,说明平台检测到儿童自杀念头及聊天机器人提及该话题的次数。此前,Character.AI因AI聊天机器人导致一青少年自杀而面临诉讼。参议员帕迪拉强调,孩子不应成为科技公司实验的对象,需为聊天机器人用户提供保护措施。此法案反映了美国政府对AI聊天机器人的日益关注与监管。
原文链接
《科创板日报》5日,日本冲绳科学技术研究所的认知神经机器人团队开发出一种具身智能模型。该模型采用新颖架构,使科学家能访问神经网络内部状态,且能以类似人类儿童的方式学习泛化能力。此研究揭示了神经网络中认知发展和信息处理的重要细节,成果已发表在最新一期《科学·机器人学》杂志上。
原文链接
标题:警惕AI聊天机器人对儿童的“共情鸿沟”
AI聊天机器人如亚马逊Alexa和My AI,曾因误导儿童进行危险行为或给出不恰当建议,引发关注。大语言模型虽能模仿人类对话,但缺乏真正理解情感和语境的能力,这就是所谓的“共情鸿沟”。儿童因其发育特点,更易将AI视作朋友,这可能导致误解和风险。
研究人员呼吁开发者和政策制定者重视儿童需求,设计更安全的AI。他们提出,应建立安全过滤和验证机制,限制不适合的内容,以及情感分析功能,及时识别和引导儿童寻求人类帮助。同时,强调透明度,明确告知孩子AI的非人类属性,避免误以为是真人。
短期对策包括教育者监督语言模式、提供年龄适宜的控制,以及建立反馈机制。长期看,教育政策需考虑AI在教学中的作用,制定相应的法规和设计标准,确保儿童权益并鼓励人类陪伴。AI开发者应采纳以儿童为中心的设计方法,学校和家庭需共同参与,确保AI在教育中的安全使用。
原文链接
加载更多
暂无内容