
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2025年7月17日,在东京举行的AtCoder世界巡回赛中,波兰选手Psyho击败OpenAI的自动化程序OpenAIAHC夺冠,AI暂居第二。OpenAI CEO奥特曼点赞祝贺Psyho。尽管人类暂时领先,但AI编程能力正迅速逼近顶尖水准。近期研究显示,16名资深开发者使用Claude Code辅助编程时,任务完成时间平均增加19%,却主观感觉效率提升20%,揭示了“效率幻觉”现象。实验表明,AI生成代码常需手动调整逻辑与修复bug,导致实际效率下降。不过,部分用户分享了通过Vibe Coding(氛围编程)提高生产力的经验。专家指出,AI编程工具的关键在于规范定义意图,而非单纯依赖提示工程。未来趋势或将聚焦于优化人机协作方式,推动技术边界探索。
原文链接
标题:DeepSeek向王一博道歉闹剧:AI幻觉不是病,别治了
前几天,一场由AI幻觉引发的舆论风波席卷网络。不少网友发现,DeepSeek因“误将演员王一博卷入腐败案”而发布了一份看似权威的道歉声明和“刑事判决书”,甚至被部分媒体当作真实新闻报道。然而,这其实是一场由大模型幻觉和虚假信息拼贴引...
原文链接
标题:差点被DeepSeek的幻觉害惨
正文:
最近,我用DeepSeek查找类似华为离职员工爆料盘古事件的信息,结果发现它提供的内容看似完整,却全是虚构的。这些信息一旦发布,后果不堪设想。AI模型的安全性和可靠性问题再次让我警醒。
智能驾驶领域也面临同样问题。安全是智能驾驶的核心,正如“安...
原文链接
7月4日,一则关于‘DeepSeek向王一博道歉’的声明在社交媒体引发热议,后被证实为乌龙事件。实际是王一博粉丝用DeepSeek生成虚假声明,经二次传播误导舆论。截至发稿,DeepSeek未正面回应。业内人士指出,该事件凸显AI幻觉风险及生成内容对舆论的误导性。绘话智能CEO贾学锋表示,大模型存在系统性缺陷,如‘语言统计规律’易编造信息、缺乏事实核验机制等。目前行业正探索检索增强生成(RAG)和事实一致性对齐技术以降低风险。此次事件为AI行业敲响警钟,呼吁技术、监管与用户协同治理,平衡内容安全与用户体验。
原文链接
标题:大模型越反思越错,长链推理加重幻觉 | 北邮
北邮网安团队研究发现,当推理链条从3步延长到50步以上时,幻觉率暴增10倍,反思机制甚至可能加剧错误。研究通过“思维链审计实验”揭示了这一现象背后的元认知偏差:长链推理中的反思并非纠错工具,而是为错误颁发“理性证书”。
长链推理的风险
推理...
原文链接
标题:ChatGPT,救了我的命
ChatGPT 真的能救命。Reddit 上一位用户分享,朋友在未标记的森林小路迷路5小时,尝试了 Google Maps 和其他地图应用均无果,最后通过每隔几分钟发送 GPS 坐标给 ChatGPT,获得清晰的指南针指示和地形信息,最终安全返回。这让人不禁思考...
原文链接
近日,中国软件企业加速接入国产大语言模型如DeepSeek以提升智能化水平,但随之而来的‘幻觉’问题引发关注。所谓‘幻觉’指模型在看似合理的情况下输出错误信息,可能影响决策、服务及法律合规。B端场景对错误容忍度极低,一旦出错将严重损害企业信誉与法律责任。目前,企业面临技术绑定效应,深度集成模型后难以轻易退出,风险日益凸显。专家指出,企业需建立防火墙机制,如引入RAG架构、设置审核流程等,以应对模型潜在缺陷。随着AI应用规模扩大,如何平衡效率与可靠性成为关键挑战。
原文链接
6月13日,印度一架波音787-8客机起飞后不久坠毁,引发广泛关注。随后,谷歌AI搜索引擎在回应用户查询失事客机机型时出现严重“幻觉”,错误地称涉事客机为“空中客车A330-243型”。此问题在Reddit等平台引发用户强烈不满。谷歌回应称已手动修正了这一错误,并表示将通过此案例优化系统。AI可能因新闻中提到“空客是波音主要竞争对手”而混淆信息。值得注意的是,谷歌AI搜索结果通常附有免责声明,提示答案可能存在错误,但由于不显眼,易被忽视。此类情况凸显了AI技术在处理复杂信息时的局限性,需进一步改进以避免误导公众。
原文链接
标题:刚上手AI,职场人就踩了幻觉的坑
正文:
“这段数据你查过吗?”
“没有,是AI写的,看起来没问题。”
赶稿的编辑周子衡发现,AI生成的内容“逻辑通顺、语气专业”,结果竟是凭空捏造;电商客服王萌的团队因AI生成的退货规则话术失误,导致客户投诉,平台只能赔钱认栽;讲师蔡倩首次用AI起草课...
原文链接
5月23日,Anthropic CEO达里奥・阿莫代伊在公司举办的“Code with Claude”开发者活动上表示,当前AI模型产生“幻觉”(虚构内容却以事实形式呈现)的频率可能低于人类。他指出,虽然AI出错方式较出人意料,但这不会阻碍其迈向AGI(通用人工智能)的目标。阿莫代伊认为,人类自身也会犯错,因此AI出错并不代表其能力不足,但他承认,AI以高信心输出错误信息可能带来隐患。不过,这一观点并非行业共识,谷歌DeepMind CEO哈萨比斯批评称当前AI模型漏洞较多,甚至无法正确回答基础问题。此外,有研究显示,部分新模型在复杂推理任务中的幻觉现象有所加重,例如OpenAI的o3和o4-mini版本幻觉率高于前代模型,具体原因尚不明确。
原文链接
加载更多

暂无内容