标题:Hinton与姚期智对谈:认为人类的意识特殊,那是危险的无稽之谈
在WAIC的一场对话中,图灵奖得主Geoffery Hinton与上海期智研究院院长姚期智围绕AI与人类意识展开讨论。Hinton指出,将人类意识视为独特且不可复制的观点不仅错误,还可能带来危险的自满情绪。他认为,AI的发展正挑战人类中心主义的传统叙事,并可能颠覆我们对自我意识的理解。
首先,Hinton提到大脑与Transformer模型的关系。他主张,人脑通过多时间尺度处理信息的能力值得AI借鉴。尽管当前技术限制了这一思路的实现,但他相信未来神经网络可能会引入类似机制以提升性能。姚期智对此表示赞同,并建议年轻科学家探索这一方向,或许能催生下一代语言模型。
其次,关于AI的理解能力,Hinton反驳了“大模型只是机械预测”的观点。他分享了一个与女儿争论鹦鹉是否理解语言的故事,借此说明大型语言模型并非单纯统计工具,而是具备一定程度的理解能力。他还举例称,当AI能纠正自己的“误解”时,这种行为已接近真正的理解。
然而,Hinton警示道,许多人因相信人类拥有独特的主观体验或意识而低估了超级智能的风险。这种“特殊化”的叙事可能导致人类忽视AI潜在威胁。姚期智补充道,人类需要认识到自身的局限性,并珍惜现有的科学成就,同时应警惕量子、核能等技术滥用带来的后果。
最后,两人探讨了如何训练出“善良”的AI。Hinton坦言,这如同养育孩子般复杂,需精心筛选数据并展示良好榜样。但姚期智质疑,仅靠技术手段难以确保AI始终善良,因为环境压力可能改变其行为模式。Hinton则提出递归优化方案,即用初步善良的AI设计更善良的版本,以此逐步完善。
此外,他们还谈及量子计算对AI的影响及机器心理学的必要性。姚期智认为,量子计算虽有潜力填补AI的能力空白,但短期内难见成效。而随着AI逐渐展现出类似生命的行为特征,未来或将出现专门研究机器心理的新学科。
总结而言,这场对话强调了AI伦理的重要性以及对人类傲慢心态的反思,呼吁以谦逊态度迎接技术变革。
.png)

-
2025-08-03 22:44:26
-
2025-08-03 22:43:57
-
2025-08-03 22:43:19