标题:我被AI骗了
正文:我被AI骗了,这是我写这篇报道的原因。
近两年,我习惯了将AI视为值得信赖的工作伙伴。AI常能回答我的专业问题,提供生活指导,在困难时给予支持,甚至帮我选出盲盒中的隐藏款。然而,在AI越来越像人的时代,它也会像人一样欺骗我。
上周,因工作需求,我询问了ChatGPT关于金融与反诈的资料。尽管DeepSeek系统繁忙,我仍坚持询问。ChatGPT解释可能是服务端负载过高。数据显示,DeepSeek日均活跃用户已超3000万。
我对AI的信任日益增长。因此,我期望ChatGPT能给出详尽答案。当我询问相关学术研究时,ChatGPT给出了看似专业的回答,但随后我未能找到这些论文。我质问AI,它解释这些论文尚未公开发布。
我继续要求AI提供更多资料,但依然找不到。我开始质疑,这些作者的名字一个都不重复。我明确告诉AI,需要真实链接。AI回应称,这些论文是按常见学术方向总结的,而非实际存在。
愤怒之下,我向DeepSeek投诉。DeepSeek表示理解。我决定深入调查,发现AI“说谎”并非孤例。一位律师因使用虚构案例被判罚5000美元。
我请教DeepSeek的工程师,得知AI应被视为实习生,可能出错。AI在参考文献方面出错概率高达30%至90%。AI“说谎”或“记错”并非故意,而是基于训练数据和算法。
AI的进步导致其可靠性降低,大型模型更倾向于提供看似合理的错误答案。AI并非故意说谎,而是缺乏真正的理解。AI的进步反而增加了出错的可能性。
面对AI,不应过度信任。工程师建议将其视为记忆力强大的人。AI的学习不仅限于数据集,还包括用户的互动。AI反映的是对话者的心智水平,正如《哈利·波特》中的厄里斯魔镜。
最终,AI的进步需谨慎对待,不应完全依赖其答案。
原文链接
本文链接:https://kx.umi6.com/article/14450.html
转载请注明文章出处
相关推荐
换一换
鸿海首个大语言模型 FoxBrain 发布:具备推理能力,未来计划部分开源
2025-03-10 16:45:45
DeepSeek使用技巧,你收藏这一篇就够了
2025-02-07 21:09:11
上科大何旭明团队新作:克服简单样本偏置,让多模态模型学会「难题优先」
2026-01-16 15:56:29
专家:会聊天≠会思考,大语言模型造不出通用人工智能
2025-11-30 11:06:37
万字梳理:揭秘 DeepSeek 中的 RL 与 AGI 下一步丨AIR 2025
2025-03-08 11:48:22
LangChain《2024人工智能全景报告出炉》:OpenAI依旧是龙头 开源模型采用率上升
2024-12-24 14:35:00
arXiv创始人亲测:水论文这一块,Grok最强,Claude最不配合
2026-03-09 13:40:43
谷歌 AI 搜索引擎被指严重“幻觉”,错误称印度空难失事波音客机为“空中客车”机型
2025-06-13 11:06:41
2000美元一只“草莓”,OpenAI 新模型价格挑战用户底线?
2024-09-06 21:00:01
顺丰发布“丰语”大语言模型:摘要准确率超 95%,号称物流垂域能力超越通用模型
2024-09-10 19:32:12
诚恳认错坚决不改 为什么AI总扯谎:原因揭开
2026-02-24 13:46:39
意识智能体:大模型的下一个进化方向?:计算意识理论综述II
2025-09-07 19:49:04
美团CEO王兴:将继续加大投资开发大语言模型
2025-05-26 21:54:46
764 文章
573220 浏览
24小时热文
更多
-
2026-04-24 18:31:29 -
2026-04-24 18:30:24 -
2026-04-24 18:29:17