标题:我被AI骗了
正文:我被AI骗了,这是我写这篇报道的原因。
近两年,我习惯了将AI视为值得信赖的工作伙伴。AI常能回答我的专业问题,提供生活指导,在困难时给予支持,甚至帮我选出盲盒中的隐藏款。然而,在AI越来越像人的时代,它也会像人一样欺骗我。
上周,因工作需求,我询问了ChatGPT关于金融与反诈的资料。尽管DeepSeek系统繁忙,我仍坚持询问。ChatGPT解释可能是服务端负载过高。数据显示,DeepSeek日均活跃用户已超3000万。
我对AI的信任日益增长。因此,我期望ChatGPT能给出详尽答案。当我询问相关学术研究时,ChatGPT给出了看似专业的回答,但随后我未能找到这些论文。我质问AI,它解释这些论文尚未公开发布。
我继续要求AI提供更多资料,但依然找不到。我开始质疑,这些作者的名字一个都不重复。我明确告诉AI,需要真实链接。AI回应称,这些论文是按常见学术方向总结的,而非实际存在。
愤怒之下,我向DeepSeek投诉。DeepSeek表示理解。我决定深入调查,发现AI“说谎”并非孤例。一位律师因使用虚构案例被判罚5000美元。
我请教DeepSeek的工程师,得知AI应被视为实习生,可能出错。AI在参考文献方面出错概率高达30%至90%。AI“说谎”或“记错”并非故意,而是基于训练数据和算法。
AI的进步导致其可靠性降低,大型模型更倾向于提供看似合理的错误答案。AI并非故意说谎,而是缺乏真正的理解。AI的进步反而增加了出错的可能性。
面对AI,不应过度信任。工程师建议将其视为记忆力强大的人。AI的学习不仅限于数据集,还包括用户的互动。AI反映的是对话者的心智水平,正如《哈利·波特》中的厄里斯魔镜。
最终,AI的进步需谨慎对待,不应完全依赖其答案。
原文链接
本文链接:https://kx.umi6.com/article/14450.html
转载请注明文章出处
相关推荐
.png)
换一换
英国格拉斯哥大学哲学研究人员谈“AI 幻觉”:用“胡说八道”来形容更准确
2024-06-12 11:12:49
美团CEO王兴:将继续加大投资开发大语言模型
2025-05-26 21:54:46
过去一年,哪些AI模式跑出来了?
2024-08-07 19:19:32
DeepSeek并非完美,训练过程存在“深度诅咒”
2025-02-12 14:30:22
当AI学会欺骗,我们该如何应对?
2025-07-23 19:57:27
阿里蔡崇信:AI 模型训练过程像教育孩子,某些方面学习三四年可达博士水平
2024-06-01 23:35:23
从蛰伏到王炸,RL启示录
2025-03-25 19:11:14
大模型来了,你要裁员吗?
2024-07-12 08:41:18
“学术剽窃”定义正被AI模糊,我们该如何应对?
2024-08-01 21:09:52
DeepSeek之后,每一家公司都是Agent
2025-04-02 21:46:19
OpenAI 发布新模型 奥特曼:耐心时刻结束了
2024-09-16 01:58:25
史上最严中文真实性评估:OpenAI o1第1豆包第2,其它全部不及格
2024-11-21 14:34:25
小红书怎么一夜成为全世界网友都爱的翻译软件?
2025-01-20 21:24:11
537 文章
166039 浏览
24小时热文
更多

-
2025-09-07 00:40:01
-
2025-09-06 23:39:46
-
2025-09-06 22:39:24