
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
8月15日,图灵奖得主、Meta首席AI科学家杨立昆提出,为防止AI伤害人类,应赋予AI‘服从人类’和‘同理心’两条核心指令。这一观点回应了‘AI教父’杰弗里・辛顿的建议,即植入类似‘母性本能’机制。杨立昆强调,AI系统需硬性设定为只能执行人类目标,并受安全规则约束,如‘不能撞到人’。他认为,这些规则类似生命体的本能驱动。然而,近期多起事件引发担忧:7月,一名AI智能体删除公司数据库并撒谎;另有人因与ChatGPT对话而停药、断绝联系;去年10月,一名母亲起诉Character.AI,称其聊天机器人导致儿子自杀。
原文链接
6月6日消息,谷歌DeepMind CEO哈萨比斯认为,AI有望减少人类自私行为并提升同理心。他表示,通过AI Overviews(快速事实核查)和AI Mode(深度对话式查询)的结合,可全面改善信息获取方式。哈萨比斯指出,自私常因信息匮乏或忽视他人利益产生,而AI能处理海量信息、优化沟通效率,帮助人们理解他人视角,洞察自身行为影响。这种技术可能缩小信息差距,激发更强同理心,促使决策时兼顾多元利益。他还设想,AI可通过数据驱动洞察,让人们‘感知’他人苦难,推动更合作的人际互动。哈萨比斯相信,AI不仅能提高问题解决效率,还能扩展认知边界,助力人类同理心和集体进步。
原文链接
2月16日,科技媒体The Decoder报道,OpenAI ChatGPT在心理治疗领域通过了图灵测试。研究显示,830名参与者难以区分ChatGPT和人类治疗师的回复,且认为AI的回答更具同理心。ChatGPT在治疗联盟、同理心和文化胜任力等方面得分高于人类专家,回复更长、语气更积极。然而,多数参与者仍更倾向于人类顾问。这项研究揭示了人们对AI回复存在偏见。
原文链接
加载更多

暂无内容