本文作者:访客

“AI教父”辛顿谈AI安全 呼吁国际合作训练AI向善

访客 2025-07-27 13:36:51 26126
AI领域的领军人物辛顿谈到了AI安全的重要性,并呼吁全球合作共同训练AI走向正面发展,他强调,随着人工智能技术的不断进步,安全问题日益凸显,需要各国共同应对,通过国际合作,可以共同制定AI道德准则,确保AI技术的健康发展,使其更好地造福人类社会,辛顿的这番言论引起了广泛关注,对于人工智能的未来走向具有重要影响。

今天,2025世界人工智能大会暨人工智能全球治理高级别会议开幕。在上午的主旨演讲中,77岁的“深度学习之父”、图灵奖得主、2024年诺贝尔物理学奖获得者Geoffrey Hinton讨论了人工智能的历史、语言模型的本质以及人类与AI的共通结构。他还特别提到Deepseek,但认为这种方式效率很低。

“AI教父”辛顿谈AI安全 呼吁国际合作训练AI向善

辛顿回顾了过去60年人工智能发展的两条主流路径:一是以推理为核心的“逻辑主义”,另一是以模拟人类认知为基础的“连接主义”。他认为,语言理解更接近后者,不是符号演绎,而是从模糊中提取出概念之间的关联。他回忆起1985年开发的一个早期小型模型,认为如今的大语言模型本质上是“它的后代”。尽管现在的模型拥有更深的网络结构和更庞大的参数规模,但核心机制并未改变。“语言模型的理解方式,和人类理解语言的方式是一样的。”

辛顿强调,大模型一旦具备比人类更强的智能,仅靠“关掉它”并不能解决问题。他说,有人觉得它们变得聪明后就可以把它们关掉,这是不现实的。它们会劝说操控机器的人不要关掉它们。人类的处境更像是在“养一只老虎当宠物”,要么训练它永远不攻击你,要么把它干掉。

辛顿建议,全球主要国家或AI大国应建立一个由AI安全机构组成的国际社群,研究如何训练高智能AI向善。各国可在自身主权范围内研究,再分享成果。尽管目前还不知道具体怎么做,但这是人类长期面临的最重要问题,且所有国家都能在此领域合作。

辛顿长期致力于神经网络、机器学习、分类监督学习、机器学习理论、细胞神经网络、信息系统应用、马尔可夫决策过程、神经网络、认知科学等方面的研究。2023年,辛顿从谷歌辞职,称生成式人工智能系统的商业应用构成了多重严重威胁,他警告说,从长远来看,自主人工智能系统可能会对人类构成严重威胁。

在演讲中,辛顿分享了他对AI历史及未来的个人观点。在过去60多年里,AI发展存在两种不同的范式和路径。一种是逻辑性范式,认为智能的本质在于推理,通过符号规则对符号表达式进行操作来实现推理;另一种是以生物为基础的范式,认为智能的基础是学习,是理解网络中的连接速度。1985年,辛顿做了一个小型模型,尝试结合这两种理论,以此理解人们对词语的理解方式。他认为,如今的大语言模型就是当年微型语言模型的“后代”,它们使用更多词作为输入,采用更多层的神经元结构,处理大量模糊数字,学习特征之间也建立了更复杂的交互模式。大语言模型理解语言的方式与人类相似——将语言转化为特征,再整合这些特征。

辛顿用乐高积木来比喻“理解一句话”的含义。符号型AI将内容转化为清晰的符号,但人类并非如此理解。如果把每个词看作多维度的乐高积木,语言就成了一种建模工具,能随时与人沟通。不过,词和乐高积木有很多不同:词的符号形态可根据情况调整,而乐高积木造型固定;语言中每个词仿佛有多个“手臂”,要通过合适的“握手”方式与其他词互动,词的意思改变,“握手”方式也会改变。这就是人脑或神经网络理解语义的根本逻辑,类似蛋白质通过氨基酸的不同组合形成有意义的结构。

辛顿认为,软件中的知识是永恒的,即便存储LLM的硬件被摧毁,只要软件存在,就能随时“复活”。但要实现这种“永生”,晶体管需在高功率下运行以产生可靠的二进制行为,这个过程成本很高。人脑也是模拟型而非数字型的,神经元每次激发的过程都一样,但每个人的神经元连接方式不同,无法将自己的神经结构转移到他人脑中,导致知识在人脑间的传播效率远低于在硬件中的传播。

Deepseek的做法是将大神经网络的知识转移到小神经网络中,即“蒸馏”,类似教师与学生的关系。但这种方式效率很低,一句话通常只有100个比特的信息,即便全被理解,每秒最多也只能传递约100个比特。而数字智能间的知识转移效率极高,同一神经网络软件的多个拷贝在不同硬件上运行时,能通过平均化比特的方式分享知识。如果智能体在现实世界中运行,这种优势更明显——它们能不断加速、拷贝,多个智能体比单个智能体学得更多,还能分享权重,这是模拟硬件或软件做不到的。

生物计算功耗低,但知识分享难。如果能源和计算成本低廉,情况会好很多,但也令人担忧——几乎所有专家都认为,我们会创造出比人类更智能的AI。人类习惯了作为最智能的生物,很难想象AI超越人类的场景。其实可以换个角度:就像养鸡场的鸡无法理解人类一样,我们创造的AI智能体已能帮我们完成任务,它们能拷贝自身、评估子目标,还会为了生存和完成目标而寻求更多控制权。

辛顿表示,面对AI,我们只有两个选择:要么训练它永远不伤害人类,要么“消灭”它。但AI在医疗、教育、气候变化、新材料等领域作用巨大,能提升所有行业的效率,我们无法消除它——即便一个国家放弃AI,其他国家也不会。因此,若想让人类生存,必须找到训练AI不伤害人类的方法。他提议,全球主要国家或AI大国应建立一个由AI安全机构组成的国际社群,研究如何训练高智能AI向善。各国可在自身主权范围内研究,再分享成果。

阅读
分享