
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
近日,美国杜克大学的一项研究发现,使用生成式AI工具如ChatGPT、Claude等在工作中可能会引发同事和管理层对你能力的质疑。研究指出,无论AI工具是否能提升效率,使用它们的人常被贴上懒惰、不够能干的标签。实验表明,选择AI工具完成任务的参与者普遍担心自己的勤奋度和专业性受到怀疑,并不愿公开使用AI的事实。进一步研究表明,即使AI工具普遍被采用,这种负面评价依然存在,甚至可能影响招聘决策,例如不常使用AI的管理者更倾向拒绝频繁使用AI的求职者。然而,当AI工具适合特定任务时,其高效性可部分缓解这种偏见。该研究发表于《美国国家科学院院刊》,提醒职场人士在引入AI工具时需考虑潜在的社会评价风险。
原文链接
OpenAI的非营利部门向杜克大学捐赠100万美元(约合726万元人民币),用于为期三年的“研究AI道德”项目。该项目由杜克大学的Walter Sinnott-Armstrong和Jana Schaich Borg两位教授领导,他们专注于实践伦理学的研究。Sinnott-Armstrong是哲学领域的专家,其研究涵盖应用伦理学、道德心理学和神经科学等多个方面。该项目旨在开发算法,预测医学、法律和商业等领域的人类道德判断,以提升AI的道德意识。然而,由于机器学习模型依赖于训练数据,这些模型可能反映主流文化观点并带有偏见,这成为该项目的主要挑战之一。此项目于11月23日由美国国税局披露,体现了OpenAI对AI伦理问题的关注。
原文链接
加载更多

暂无内容