标题:AI远未征服人类,为何谈论“超人类人工智能”?
在当下,ChatGPT和Gemini等生成性AI系统常被标榜为“超人类人工智能”(superhuman AI)的前兆,这一说法并非空穴来风,而是反映了AI领域中快速增长、危险且强大的意识形态。这种意识形态旨在削弱人类的自主性和独立性,模糊意识心智与构建它们的机械工具之间的界限。
目前的AI系统虽强大,却缺乏人类心智的基本特征:它们没有意识或感知能力,无法体验痛苦、快乐、恐惧或爱,也无法感知自己在世界中的位置和角色。它们只能回答特定问题,生成图像,制作深度伪造视频等,但其内在逻辑犹如黑洞,深不可测。
在2023年的机器学习会议上,我向图灵奖得主Yoshua Bengio提出了质疑:“在AI产品远未与人类相匹敌,更遑论超越之时,为何我们要讨论‘超人类人工智能’?”我曾在他之前的演讲中对这种言论提出挑战,Bengio随后的演讲及对立法者的警告再次强调了这一观点,他认为未来几年内人类可能失去对超人类人工智能的控制。
Bengio通常是一位脚踏实地的AI研究者,但他采纳“超人类人工智能”的说法让我感到不解。虽然我认同AI系统在关键基础设施和防御系统中的潜在危险,以及需要更有效地管理AI的重要性,但将AI称为“超人”并非提出这些论点的必要条件。
我试图阐明,计算速度或精确度的“超人”水平与真正的超人类——即超越人性——之间存在巨大差异。即便是最普通的人类,展现出的智慧和情感也远超当前最强大的AI系统。AI系统不过是寻找问题最优解的数学优化器,或是潜在的下一个令牌生成器,而人类智慧的行为,如与孩子玩耍或创作艺术,远非如此简单。
Bengio反驳道,大脑是一台机器,硅基机器能够执行类似的大脑计算。尽管这一观点并不新鲜,但将其视为描述人类能力的唯一途径,忽略了人类能力的丰富性。我们不仅高效地进行计算,还拥有创造力、同理心和道德智慧等核心特质。
“超人类人工智能”的定义模糊不清,这引发了关于“任务”范围的争议。Bengio对“超人类人工智能”的定义为在广泛任务中超越人类的AI系统,这一定义过于宽泛,忽略了人类能力的多样性。
OpenAI和一些研究者提出了与人类心智无法区分的AI系统的新愿景,这与传统通用人工智能(AGI)的概念有所偏离。AGI旨在达到与人类思维等效的水平,而现在,目标是让机器在一系列具有经济价值的任务中匹配或超越人类。
这种观点将人类能力简化为经济价值输出,忽略了人类的其他重要特质。如果我们仅仅根据完成任务的速度和质量来定义“超人类”,那么创造这样一个机器似乎不再遥不可及。这种简化可能导致我们忽视了那些真正值得珍视的人性价值。
在讨论“超人类人工智能”时,我们必须警惕这种表达方式可能带来的危害。它可能削弱我们对人类能力和价值的认识,将人类简化为机器,从而忽视了人类智慧的丰富性和复杂性。我们应该抵制这种简化,并重新聚焦于人类能力的核心维度,促进文化的恢复,特别是那些长期被低估的价值。
为了重夺我们的本质,我们可以从教育、经济、文化和政治等多个层面着手。在教育中,我们应重新激发学习的热情,教会孩子们拥抱人文潜能,而不是将其简化为机械化的学习流程。在经济领域,我们可以设定新的激励措施,鼓励长期的健康、可持续发展和社会信任。在文化方面,我们应重新重视创造意义、讲述故事和发现新美的能力,而非依赖AI取代人类的产出。在政治领域,我们可以设计AI工具,以揭露腐败,保护社会的公平与正义。
即使在这些更加人性化的发展方向中,AI仍将在某些领域发挥重要作用,如环境清理、太空探索、降低日常成本、维护基础设施、分析复杂系统等。关键在于,我们应确保AI服务于人类的利益,而非取代人类的本质。现在可能是时候重新审视我们的路径,以确保AI的发展能够促进人类的繁荣与福祉。
-
2025-12-08 23:53:52 -
2025-12-08 22:52:38 -
2025-12-08 22:51:57