综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
英国格拉斯哥大学哲学专家近日在《伦理与信息技术》发表论文,建议用"胡说八道"而非"AI 幻觉"描述大语言模型提供的看似合理但常有谬误的答案。他们指出,AI 并非产生幻觉,而是模仿训练数据中的语言模式,不涉及事实核查,其不准确性源于生成看似正确的文本,而非误解或感知。这一观点挑战了传统对AI错误输出的标签,引发了关于AI生成内容真实性的新讨论。此前有关“AI 幻觉”的报道如谷歌搜索推荐披萨胶水事件和马斯克的误解,随着AI技术发展,如何界定其行为的真实性成为关注焦点。
原文链接
加载更多
暂无内容