标题:别让AI替你说出那句“我觉得”
正文:
好像我们越来越倾向于先看AI输出的内容,再进行二次加工和优化。
昨天,ChatGPT推出新功能,我突然意识到一个问题:我们是否正在亲手制造一种“认知外包”的依赖?AI设计的本质是鼓励人们少思考,许多AI产品通过一键总结、自动归类等功能降低认知负担。这些功能确实提高了效率,但也无形中引导我们放弃主动筛选和判断的过程。
我自己就是一个例子。有了Notion AI后,我的行为明显改变。以前需要我亲自筛选、整理的信息,现在都交给AI完成。我发现自己的注意力开始散漫,思考动力减弱。现在,我习惯先把内容丢给AI粗略过一遍,觉得有价值就导入文档,进一步处理时再向AI提问。这个过程让我逐渐成为“等待答案”的人,虽然舒适,但也藏着陷阱——一旦习惯,就难以回头。
我们的大脑天生喜欢走最省力的路径,而AI正好提供了这样的“低能耗”认知方式。已有研究表明,随着对AI工具的信任提升,人们倾向于把认知任务交给它,减少深入加工信息。尽管没有明确数据,但趋势已显:频繁依赖AI的人,在独立推理方面确实会出现困难。我明显感到自己的思维比没有AI时迟钝一些。
公司也在推动这种“认知外包”,将AI嵌入工作流程,如AI客服、智能PPT等。这些工具虽提升效率,却悄然弱化批判性思维能力。我不完全否定认知外包的价值,但它的边界正在迅速侵蚀。
前几天与一位大学教授聊天,他提到学生用AI做学术分析、收集资料,老师被迫用AI检查论文质量。这很荒谬:表面上加速了一切,结果却更忙、更乱。我们该思考:什么时候该用AI帮忙,什么时候必须坚持人的判断?这是一个没有答案的问题。
从我的角度看,我会尽量做到“能外包,不思考”,并非因为懒,而是符合人的天性:我们都渴望轻松,而AI不断给出“捷径”。既然认知外包无法阻挡,它会不会固化?会不会反噬我们?我并非想证明“AI会让人变笨”,而是想还原一个真实现象。
当我思考这个问题时,分别问了豆包、夸克、DeepSeek,得到的回答令我惊讶。DeepSeek提到Google的研究发现,经常使用AI的人,大脑前额叶活跃度下降30%,海马体体积缩小8%。它还补充加州大学的研究表明,AI快速给出答案会刺激多巴胺分泌,使人上瘾、依赖AI。亚马逊客服员工用了AI辅助后,半年内处理投诉能力下降34%。
但我查证这些所谓研究,发现根本不存在。我又用Gemini搜寻相关数据,也没找到明确支持的说法,只有对现象的描述。所以我想说:我们以为在获取知识,可能只是接受一套“看似合理”的说法。频繁使用AI时,习惯让它给出答案,就会减少怀疑、验证、独立思考。这就像开车看导航久了,忘了自己的地图能力;用计算器多了,心算能力退化。不是AI有意害我们,而是我们不知不觉把思考能力交出去了。
说到底,认知外包会不会造成行为固化?我不敢下结论。但可以确定的是,它会让深度思考变得稀缺。不是深度思考能力下降,而是创意、洞察、质疑、重构的能力正在被削弱。这不是AI夺走的,而是我们正一点点把“人之所以为人”的能力交给AI。
昨天,同学告诉我,以前团队做品牌推广时会围坐讨论用户需求、痛点和创意表达;现在第一反应是“先让AI出几个方案看看”。把方案拿回来优化后交给甲方,但没人知道甲方是否也用AI审阅。表面提升效率,但真正从混乱中诞生的新想法却少了。这才是最值得警惕的。
我在想:当AI成为“记忆外挂”,我们还剩下什么?过去记住东西是负担,现在AI能帮我们记住一切。但我开始相信,我不需要记得那么细,只需知道基础概念,问题是:理解从来不是凭空发生的。只有记住基本的东西,才能听懂、看懂、想明白复杂内容。如果连因果关系、前提条件都要靠AI提醒,那所谓的“复杂推演”不过是调用模型的结果。换句话说,我不是卸下记忆负担,而是丢掉理解世界的基本支点;所以,“理解”本身才是前置条件。
此外,经验正在变成“压缩胶囊”。过去靠反复打磨和积累形成判断力、方法论,现在习惯将经验存入AI,遇到问题就调用。但AI无法替代需要手感、直觉、真实经历的经验。例如医生的临床判断或设计师的美学考量,这些需要活学活用才能积累。
因此,真正厉害的人是能把“手感”和“AI工具箱”结合起来的人。在效率优先的时代,我们是否该找回“慢思考”的模式?工具理性的边界在哪里?慢不是为了拖时间,而是为了对抗多巴胺驱动的认知惯性。我们太容易被AI“喂答案”,就像刷短视频一样,获得即时满足,但这让大脑更依赖快速反馈,不愿独立思考。久而久之,神经元连接方式改变,倾向于“选A还是B”,而非“这题目有没有问错”。
慢的本质是一种AI给不了的元能力。前几天看到一个视频,大学老师教学生提问时说:“希望你能给出一个不一样的思考。”这是个关键问题:每个人的破局点可能在于过程性思考。
欧盟《人机共生宣言》有一条铁律:AI无权替人类回答“为什么”。换句话说,AI能处理“是什么”和“怎么做”,但“为什么”必须由人决定。
回到工具理性上,大厂不会停下对AGI的追求,但我们可以在其中找到人性的坐标。什么是人的坐标?我觉得,在与技术共处过程中,要找到自己的角色位置:过去是制造者,现在是使用者,也被影响着。那再往后呢?也许会出现一种新角色,成为个人AI助理的守护者?可以确定的是,这个坐标在不断变化。只有当每个人都意识到自己的位置,并带着自主性和创造力使用技术时,才不会被技术同化。或许在未来,理性是我们是否能守住自己判断权的关键。
.png)

-
2025-07-19 07:49:30
-
2025-07-18 23:46:25
-
2025-07-18 22:47:06