英国格拉斯哥大学哲学专家近日在《伦理与信息技术》发表论文,建议用"胡说八道"而非"AI 幻觉"描述大语言模型提供的看似合理但常有谬误的答案。他们指出,AI 并非产生幻觉,而是模仿训练数据中的语言模式,不涉及事实核查,其不准确性源于生成看似正确的文本,而非误解或感知。这一观点挑战了传统对AI错误输出的标签,引发了关于AI生成内容真实性的新讨论。此前有关“AI 幻觉”的报道如谷歌搜索推荐披萨胶水事件和马斯克的误解,随着AI技术发展,如何界定其行为的真实性成为关注焦点。
原文链接
本文链接:https://kx.umi6.com/article/1201.html
转载请注明文章出处
相关推荐
换一换
从蛰伏到王炸,RL启示录
2025-03-31 14:32:31
Agent是“新瓶装旧酒”,氛围编码不值得尝试?
2025-05-08 14:32:22
AI无处不在的小应用,与行业发展的大困局
2025-09-22 16:01:16
OpenAI 发布新模型 奥特曼:耐心时刻结束了
2024-09-16 01:58:25
当 AI 下场炒 A 股,「推理」成了新的直觉
2025-10-28 12:51:59
大语言模型火爆的今天,我们为什么还要拥抱世界模型?
2025-04-09 10:42:08
大模型来了,你要裁员吗?
2024-07-12 08:41:18
科大讯飞将在港投资 4 亿港元,专注大语言模型等开发;英伟达 Mistral AI 联手发布 12B 参数小模型丨AI情报局
2024-07-22 12:10:41
小红书怎么一夜成为全世界网友都爱的翻译软件?
2025-01-20 21:24:11
中国科学院科学家首次证实:大语言模型能像人类一样“理解”事物
2025-06-11 10:10:26
AI模拟社会的“幕后”操控者是谁?
2025-01-21 14:39:42
GPT-5变蠢背后:抑制AI的幻觉,反而让模型没用了?
2025-08-23 07:59:01
美国哥伦比亚大学研究:大语言模型正在变得越来越像人类大脑
2024-12-20 11:27:54
636 文章
438271 浏览
24小时热文
更多
-
2026-01-23 11:53:08 -
2026-01-23 11:52:03 -
2026-01-23 11:50:59