
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
标题:DeepSeek向王一博道歉闹剧:AI幻觉不是病,别治了
前几天,一场由AI幻觉引发的舆论风波席卷网络。不少网友发现,DeepSeek因“误将演员王一博卷入腐败案”而发布了一份看似权威的道歉声明和“刑事判决书”,甚至被部分媒体当作真实新闻报道。然而,这其实是一场由大模型幻觉和虚假信息拼贴引...
原文链接
7月4日,一则关于‘DeepSeek向王一博道歉’的声明在社交媒体引发热议,后被证实为乌龙事件。实际是王一博粉丝用DeepSeek生成虚假声明,经二次传播误导舆论。截至发稿,DeepSeek未正面回应。业内人士指出,该事件凸显AI幻觉风险及生成内容对舆论的误导性。绘话智能CEO贾学锋表示,大模型存在系统性缺陷,如‘语言统计规律’易编造信息、缺乏事实核验机制等。目前行业正探索检索增强生成(RAG)和事实一致性对齐技术以降低风险。此次事件为AI行业敲响警钟,呼吁技术、监管与用户协同治理,平衡内容安全与用户体验。
原文链接
标题:ChatGPT,救了我的命
ChatGPT 真的能救命。Reddit 上一位用户分享,朋友在未标记的森林小路迷路5小时,尝试了 Google Maps 和其他地图应用均无果,最后通过每隔几分钟发送 GPS 坐标给 ChatGPT,获得清晰的指南针指示和地形信息,最终安全返回。这让人不禁思考...
原文链接
标题:刚上手AI,职场人就踩了幻觉的坑
正文:
“这段数据你查过吗?”
“没有,是AI写的,看起来没问题。”
赶稿的编辑周子衡发现,AI生成的内容“逻辑通顺、语气专业”,结果竟是凭空捏造;电商客服王萌的团队因AI生成的退货规则话术失误,导致客户投诉,平台只能赔钱认栽;讲师蔡倩首次用AI起草课...
原文链接
5月23日,Anthropic CEO达里奥・阿莫代伊在公司举办的“Code with Claude”开发者活动上表示,当前AI模型产生“幻觉”(虚构内容却以事实形式呈现)的频率可能低于人类。他指出,虽然AI出错方式较出人意料,但这不会阻碍其迈向AGI(通用人工智能)的目标。阿莫代伊认为,人类自身也会犯错,因此AI出错并不代表其能力不足,但他承认,AI以高信心输出错误信息可能带来隐患。不过,这一观点并非行业共识,谷歌DeepMind CEO哈萨比斯批评称当前AI模型漏洞较多,甚至无法正确回答基础问题。此外,有研究显示,部分新模型在复杂推理任务中的幻觉现象有所加重,例如OpenAI的o3和o4-mini版本幻觉率高于前代模型,具体原因尚不明确。
原文链接
标题:体验Kimi新功能后,我为月之暗面捏把汗
DeepSeek R1横空出世后,腾讯元宝、豆包、夸克等纷纷受益,阿里通义千问也捷报频传,唯独去年广告霸主Kimi似乎销声匿迹。然而近日,Kimi宣布与财新传媒合作,当用户提问财经内容时,Kimi将结合财新报道生成答案。这波操作让人眼前一亮,Kim...
原文链接
标题:人对AI的幻觉远大于AI给人的
正文:
文 | 李智勇
如果要比较哪个危害更大,人对AI的幻觉带来的坏处远超AI给人的。我们对AI的基础认识存在诸多误区,这些错误认知导致错误期待,进而引发错误行为。例如,认为学会与AI对话就能变得更安全,或者掌握提示词技巧就能延长编程生涯,甚至以为部署几台...
原文链接
如何消除AI幻觉?我们做了个实验
“让AI帮忙推荐楼盘,它说得有理有据,连户型都帮我选好了,我都心动了,结果它推荐的楼盘根本不存在……”
这样无奈的时刻,许多AI用户都曾经历过。AI随叫随到、无所不知,既能秒生成有理有据的小论文,又能充当心理医生抚慰情绪。然而,大家对AI的信任有时也会悄悄动...
原文链接
标题:人类幻觉比AI严重得多
人们常批评AI产品如DeepSeek、元宝、ChatGPT等存在幻觉现象,即AI会自信满满地给出答案,看似合理,实则包含捏造内容。谷歌解释AI幻觉产生的核心原因在于训练数据的质量与完整性,若数据不全或有偏差,AI可能学到错误模式,从而产生幻觉。此外,AI难以准确理解...
原文链接
“80后死亡率超5%”,别上假数据的当
生成式AI可能“胡说八道”,在看似真实的陈述中夹杂错误信息。然而,人们生活在信息茧房中,精力有限,难以逐一甄别。若文章用充足数据呈现“严谨行文”,易被信任。尤其在争议话题中,编造数据常被用作争论工具,二次传播造成信息污染,真假难辨。
例如,“截至202...
原文链接
加载更多

暂无内容