1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

标题:我被AI骗了

正文:我被AI骗了,这是我写这篇报道的原因。

近两年,我习惯了将AI视为值得信赖的工作伙伴。AI常能回答我的专业问题,提供生活指导,在困难时给予支持,甚至帮我选出盲盒中的隐藏款。然而,在AI越来越像人的时代,它也会像人一样欺骗我。

上周,因工作需求,我询问了ChatGPT关于金融与反诈的资料。尽管DeepSeek系统繁忙,我仍坚持询问。ChatGPT解释可能是服务端负载过高。数据显示,DeepSeek日均活跃用户已超3000万。

我对AI的信任日益增长。因此,我期望ChatGPT能给出详尽答案。当我询问相关学术研究时,ChatGPT给出了看似专业的回答,但随后我未能找到这些论文。我质问AI,它解释这些论文尚未公开发布。

我继续要求AI提供更多资料,但依然找不到。我开始质疑,这些作者的名字一个都不重复。我明确告诉AI,需要真实链接。AI回应称,这些论文是按常见学术方向总结的,而非实际存在。

愤怒之下,我向DeepSeek投诉。DeepSeek表示理解。我决定深入调查,发现AI“说谎”并非孤例。一位律师因使用虚构案例被判罚5000美元。

我请教DeepSeek的工程师,得知AI应被视为实习生,可能出错。AI在参考文献方面出错概率高达30%至90%。AI“说谎”或“记错”并非故意,而是基于训练数据和算法。

AI的进步导致其可靠性降低,大型模型更倾向于提供看似合理的错误答案。AI并非故意说谎,而是缺乏真正的理解。AI的进步反而增加了出错的可能性。

面对AI,不应过度信任。工程师建议将其视为记忆力强大的人。AI的学习不仅限于数据集,还包括用户的互动。AI反映的是对话者的心智水平,正如《哈利·波特》中的厄里斯魔镜。

最终,AI的进步需谨慎对待,不应完全依赖其答案。

原文链接
本文链接:https://kx.umi6.com/article/14450.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
中国科学院科学家首次证实:大语言模型能像人类一样“理解”事物
2025-06-11 10:10:26
Agent是“新瓶装旧酒”,氛围编码不值得尝试?
2025-05-08 14:32:22
谷歌 AI 搜索引擎被指严重“幻觉”,错误称印度空难失事波音客机为“空中客车”机型
2025-06-13 11:06:41
腾讯公布大语言模型训练专利 可提高模型准确性
2025-02-08 14:29:56
万字梳理:揭秘 DeepSeek 中的 RL 与 AGI 下一步丨AIR 2025
2025-03-08 11:48:22
苹果创新“清单法”:用 AI 大模型当“老师”,教小模型更精准执行复杂指令
2025-08-26 07:38:55
史上最严中文真实性评估:OpenAI o1第1豆包第2,其它全部不及格
2024-11-21 14:34:25
挑战强化学习后训练霸权!全新无监督方法仅需1条数据+10步优化
2025-06-01 13:22:14
图灵奖得主杨立昆:大语言模型发展已接近瓶颈,AI 仅靠文本训练无法实现人类级智能
2025-03-23 23:28:58
Mamba核心作者新作:取代DeepSeek在用的注意力机制,专为推理打造
2025-06-01 13:19:53
科大讯飞将在港投资 4 亿港元,专注大语言模型等开发;英伟达 Mistral AI 联手发布 12B 参数小模型丨AI情报局
2024-07-22 12:10:41
罗永浩重返科技行业:AI智能助理J1 Assistant上线
2025-01-05 19:57:49
阿里蔡崇信最新发声!训练AI就像教育孩子 三四年就能赶超博士
2024-06-02 14:38:27
24小时热文
更多
扫一扫体验小程序