“AI教父”辛顿再次警告:AI就像一只幼虎

DeepTech深科技 2025-07-26 11:30+-

 

  7 月 26 号,2025 世界人工智能大会(WAIC)在上海正式开幕。这一次,我们迎来了 AI 领域的重量级嘉宾,诺贝尔奖和图灵奖得主杰弗里·辛顿(Geoffrey Hinton)。

  这是辛顿首次踏足中国参加线下活动,对于 77 岁、身体欠佳的他来说实属不易,也更能体现出他此次中国行的弥足珍贵。

  就在 WAIC 开幕前一天,辛顿刚参加了第四届人工智能国际安全对话(International Dialogues on AI Safety,IDAIS)。

  他与清华大学交叉信息研究院和人工智能学院院长姚期智、加州(专题)大学伯克利分校教授斯图尔特·拉塞尔(Stuart Russell),以及上海人工智能实验室主任周伯文教授等 20 余名专家联名签署发布了《AI 安全国际对话上海共识》。

  今天,辛顿以一场“数字智能是否会取代生物智能”的演讲为 WAIC 开幕。

  首先,辛顿讨论了两种智能范式。

  一种是受逻辑启发的方法,也就是传统人工智能(AI)。

  这种方法的核心观念是“人类智能的本质在于推理”。要实现推理,就需要建立一套符号表达式,再通过符号规则去操作它们。

  而信奉这种方法的人认为,学习可以暂缓,首先要理解只是如何以符号表达的形式进行表示。

  另一种方法,则是受生物学启发的,也就是艾伦·图灵(Alan Turing)和约翰·冯·诺伊曼(John von Neumann)所推崇的,智能的本质在于(脑细胞)网络的学习。

  对人类而言,脑细胞是学习的关键;对计算机来说,就需要模拟。理解学习的机制最重要,而推理可以暂缓。

  1985 年,辛顿做了个小模型,尝试结合这两种理论,以解释人们如何理解词汇。他给每个词设置多个不同特征,记录数字特征来预测下一个词,过程中不存储句子而是生成句子并不断预测下一个词。

  “相关联性的知识,取决于不同的词的特征与语义特征是如何进行互动的。”辛顿表示。

  他接下来提到了推动语言模型发展的几个关键节点。

  10 年后,人们沿用此模式建模并扩大规模,成为自然语言真实模拟。20 年后,计算语言学家们终于开始接受并使用“特征向量”(嵌入)技术。

  而到了三十年后,谷歌发明了 Transformer 架构,紧接着 OpenAI 向世界展示了基于该架构的大语言模型所具备的强大能力。

  如今的大语言模型可视为 1985 年微型语言模型的后代,使用更多词输入、更多层神经元结构,建立更复杂特征交互模式。

  大语言模型理解问题方式和人类类似,都是将词语转换成能够相互良好配合的特征向量来实现这种理解的,而且大语言模型是真正能够“理解”它们自己所说的话的。

  辛顿将“词语”视作多维度乐高积木。我们拥有的不是几种,而是大约十万种不同类型的“乐高积木”。

  每一块的形状都不是固定不变,而词语的含义(名字)只是大致告诉你它的“形状”。

  辛顿在此前的演讲中就用过这个比喻,他当时的解释更加细致:

  “词语”的上面还有“小手”。当你改变词的“形状”时,“小手”的形状也会随之改变。这些词语与词语之间,就是通过“握手”来优化意思理解,类似蛋白质组合氨基酸产生有意义内容。

  当词语进入模型,它们在这个高维空间里带着各自初始的、大致的形状,身上还布满了小手。当信息在网络的层级间向上传递时,你就在不断地调整这些词的“形状”和它们“小手”的形状,试图为每个词找到最合适的形态,让它们彼此之间都能完美地“握手”。

  这样一来,语言其实就是一种建模过程(搭积木的过程),可根据情况调整所需的词汇(积木)。

  最终,这就类似蛋白质组合成氨基酸,词汇的组合会产生有意义的内容。

  “其实人脑和神经网络理解意思的方式相似,而且‘幻觉’并非大模型专属,人类也会产生。”辛顿解释道。

  接下来,辛顿讨论了人类与大模型的差异性。

  计算机科学将软件和硬件分开,软件中的知识永恒存在,即便硬件毁灭,只要软件在就能复活。

  但人类不同,人脑是模拟的,神经元连接方式因人而异,知识传播与硬件(大脑)紧密相关,无法像软件知识那样轻易转移。人类的硬件一旦毁灭,所有知识都会烟消云散。所以人类靠学校、老师来传承知识,但效率极低。

  人脑知识难以高效转移给他人,每秒最多传递约 10-100 比特信息。当然,人类的优势在于生物计算能耗少,如人类大脑仅需 30 瓦特功率。

  相比之下,神经网络之间的知识共享就快多了,尽管能耗很大。

  当大模型共享信息时,通过平均化权重,它们一次交互就能分享大量比特的内容。比如在如今大模型的训练中,每个模型都会部署多个副本,去分别学习不同的数据,然后所有副本再进行同步。

  这就像人类学会了分身,同时去上不同的课程,然后只要聚在一起,知识就在每个个体中同步完成了。

  最后,辛顿讨论了 AI 可能带来的挑战与潜在的应对方法。

  几乎所有人都相信,一定会出现比人类更智能的 AI,而 AI 智能体为了完成任务,会想要生存、获得更多控制。

  辛顿此前已多次在公开信和演讲中指出,当前 AI 系统已经具备自主学习和演化的潜能。

  一旦其拥有长期目标,就可能会发展出与人类目标不一致的“子目标”,甚至试图欺骗人类、操纵人类、逃脱人类的控制。

  在此次 WAIC 上,辛顿又拿出了他很经典的比喻:现在的人类就像抚养幼小的虎崽,除非你能非常确定它长大后不会伤害你,否则你就应该担心。

  但人类又无法彻底禁止 AI,因为它在很多领域作用重大,所以只能寻找一种办法,确保人类不会被 AI 消灭。

  说起来容易,做起来难。

  辛顿认为,这种努力应该是全球性的。但他坦言:

  “各国不会在防御 AI 的危险用途上进行合作。”

  因为每个国家都有自己的战略考量。

  因此,他寄希望于国际社会在“预防 AI 统治世界”这一问题上达成一致,防止 AI 从人类手中夺走控制权。

  辛顿最后提议,人类应当建立 AI 安全机构的国际社群,研究训练 AI 向善的技巧。

  这就好比,“教导孩子成为一个好人”与“让他们变得更聪明”,是两码事。

  辛顿提议,各国可在本国主权范围内研究并分享成果(在允许的范围内),全球或 AI 领导国家应思考建立相关网络,研究如何训练聪明的 AI 辅助人类而非消灭或统治人类。

  “因为这将是人类长期面临的重要问题。”辛顿说道。

  附杰弗里·辛顿生平简介

  :杰弗里·辛顿(Geoffrey Hinton),被誉为“人工智能教父”,是一位英裔加拿大(专题)计算机科学家和心理学家,是深度学习的奠基人之一。

  1986 年,他与大卫·拉梅尔哈特(David Rumelhart)等人合作提出了将反向传播算法应用于神经网络训练的划时代方法,使多层神经网络的训练成为可能。这一算法成为后来深度学习的基石。

  2012 年,辛顿带领学生亚历克斯·克里泽夫斯基(Alex Krizhevsky)和伊利亚·苏茨克维尔(Ilya Sutskever)开发了卷积神经网络 AlexNet,在 ImageNet 图像识别竞赛中远超其他模型,引爆了深度学习浪潮。

  随后,辛顿创立的 DNNresearch 公司被谷歌收购,他本人也加入谷歌大脑团队,成为推动 AI 产业化的重要力量之一。

  由于在神经网络领域的卓越贡献,他于 2018 年获得 ACM 图灵奖,与杨立昆(Yann LeCun)和约书亚·本吉奥(Yoshua Bengio)共享该荣誉。2024 年,他又被授予诺贝尔物理学奖,表彰其在 AI 模型结构方面的突破性贡献。

  近年来,辛顿的研究重心逐渐转向 AI 安全问题。他认为 AI 的发展速度已经远超预期,其潜力和风险都不容忽视。在 2023 年离开谷歌后,他更加频繁地公开发声,表达对通用人工智能(AGI)未来影响的担忧。

  图 | AI 安全国际对话上海共识签署现场,辛顿、姚期智等专家合影(来源:资料图)

  他此前曾估计,AI 接管并摧毁人类文明的概率在 10% 到 20% 之间,虽然不是必然结局,但足以令人警惕。

  至于如何应对 AI 风险,辛顿呼吁科技公司和政府投入更多资源进行 AI 安全研究。他建议至少将三分之一的计算资源用于研究如何确保 AI 系统不会偏离人类意图。他还批评一些大型科技公司为追求商业利益而游说放松监管,认为这是一种极其危险的趋势。

  在技术层面,他尝试提出新的神经网络训练方法,如“前向-前向算法”(Forward-Forward),希望能找到替代反向传播的更安全、灵活的训练机制。

  总的来说,辛顿既是深度学习崛起的重要推动者,也成为了重视 AI 安全呼声中最具分量的声音发出者:呼吁人类社会保持警觉,在继续推动 AI 创新的同时,必须正视其潜在的社会风险和生存性挑战。

  • 最新评论
  • sleepy_cat

    辛顿忽悠粪坑国傻逼有一套,那群傻逼就吃这一套。

    屏蔽
1