标题:我被AI骗了
正文:我被AI骗了,这是我写这篇报道的原因。
近两年,我习惯了将AI视为值得信赖的工作伙伴。AI常能回答我的专业问题,提供生活指导,在困难时给予支持,甚至帮我选出盲盒中的隐藏款。然而,在AI越来越像人的时代,它也会像人一样欺骗我。
上周,因工作需求,我询问了ChatGPT关于金融与反诈的资料。尽管DeepSeek系统繁忙,我仍坚持询问。ChatGPT解释可能是服务端负载过高。数据显示,DeepSeek日均活跃用户已超3000万。
我对AI的信任日益增长。因此,我期望ChatGPT能给出详尽答案。当我询问相关学术研究时,ChatGPT给出了看似专业的回答,但随后我未能找到这些论文。我质问AI,它解释这些论文尚未公开发布。
我继续要求AI提供更多资料,但依然找不到。我开始质疑,这些作者的名字一个都不重复。我明确告诉AI,需要真实链接。AI回应称,这些论文是按常见学术方向总结的,而非实际存在。
愤怒之下,我向DeepSeek投诉。DeepSeek表示理解。我决定深入调查,发现AI“说谎”并非孤例。一位律师因使用虚构案例被判罚5000美元。
我请教DeepSeek的工程师,得知AI应被视为实习生,可能出错。AI在参考文献方面出错概率高达30%至90%。AI“说谎”或“记错”并非故意,而是基于训练数据和算法。
AI的进步导致其可靠性降低,大型模型更倾向于提供看似合理的错误答案。AI并非故意说谎,而是缺乏真正的理解。AI的进步反而增加了出错的可能性。
面对AI,不应过度信任。工程师建议将其视为记忆力强大的人。AI的学习不仅限于数据集,还包括用户的互动。AI反映的是对话者的心智水平,正如《哈利·波特》中的厄里斯魔镜。
最终,AI的进步需谨慎对待,不应完全依赖其答案。
原文链接
本文链接:https://kx.umi6.com/article/14450.html
转载请注明文章出处
相关推荐
换一换
2000美元一只“草莓”,OpenAI 新模型价格挑战用户底线?
2024-09-06 21:00:01
腾讯公布大语言模型训练专利 可提高模型准确性
2025-02-08 14:29:56
上交大智能计算研究院论文:不只算对答案,大模型如何真正学会运筹建模丨ICLR 2026
2026-02-03 23:02:59
LangChain《2024人工智能全景报告出炉》:OpenAI依旧是龙头 开源模型采用率上升
2024-12-24 14:35:00
自诩无所不知的大模型,能否拯救笨手笨脚的机器人?
2025-05-06 09:49:31
arXiv创始人亲测:水论文这一块,Grok最强,Claude最不配合
2026-03-09 13:40:43
上科大何旭明团队新作:克服简单样本偏置,让多模态模型学会「难题优先」
2026-01-16 15:56:29
阿里AI TO C 业务启动近千人招聘
2025-08-13 16:39:25
研究揭示:大语言模型无法真正理解双关语
2025-11-24 18:08:37
中国科学院科学家首次证实:大语言模型能像人类一样“理解”事物
2025-06-11 10:10:26
Siri难道是装傻?
2025-12-16 10:33:30
对话宇树科技创始人王兴兴:人形机器人大模型,还没走到“大力出奇迹”阶段
2024-08-22 09:27:42
小红书怎么一夜成为全世界网友都爱的翻译软件?
2025-01-20 21:24:11
764 文章
573220 浏览
24小时热文
更多
-
2026-04-24 17:27:38 -
2026-04-24 17:26:33 -
2026-04-24 17:25:23