人工智能为什么一定要有身体?

2020-03-12 17:11:31

人类是一种具备丰沛想象力的生物,无论是对自我还是他者,对过去还是未来,皆是如此。当面对“人工智能”这种新事物时,人类的这一点特性体现得尤为明显。

 

早在希腊神话中,诸如“黄金机器人”这样的智能机器就已经出现。传说火神赫准斯托斯为了招待上帝,通过金属加工和手工工艺铸造了24个铜三脚架,它们能够凭借金色的轮子自我驱动、四处走动,这便是人工智能最早的雏形。

 

而在今天,人类对人工智能的想象依旧狂热。从《终结者》、《银翼杀手2049》,到《机械姬》、《战斗天使阿丽塔》,大量的科幻作品向我们展示了人工智能的未来形态:它们不仅是超强智能的化身,更是形似人类并且具备自我意识的情感动物。

 

但也有一种声音认为,迄今对强人工智能的幻想未免太缺乏想象力:当超级智能已经无所不能之时,为何还会受到“肉体”的限制?表面看起来,这样的质疑不无道理,人类对AI形态的构想似乎仍受自身经验和认知水平禁锢——人有躯体,那么未来的人工智能也一定会有躯体。倘若AI能摆脱实体桎梏,以类似于数据的形式存在,那么它无疑将更加空灵自由,能力也会更为强悍。

 

不过,越来越多的证据表明,“身体”恰恰是人工智能发展、进化必不可少的关键基础。随着认知科学的迅速发展,“具身认知”理论得到AI科学家重视,并由此促成人工智能研究的具身性转向。这一转向极为重视“身体”对于人工智能的作用,以此为突破技术发展瓶颈带来曙光,并成为迈向强人工智能乃至超人工智能的关键一步。

 

 

 

一、定义“智能”

 

对于“什么是人工智能”这个问题,人类总喜欢拿自身情况和认知水平去类比、衡量。循着这一思路,似乎只有那些能够突破人类能力瓶颈——即解决人类都难以攻克的复杂问题、拥有超高速计算能力的才被视为“人工智能”。

 

实际上,这种主宰了AI研究界数十年的理念并没有真正理解“智能”的含义。

 

这一理念也直接导致人类在弱人工智能领域踌躇过久,而在强人工智能领域长期毫无建树。在20世纪五六十年代,研究者表现出相当乐观的情绪,他们认为具备完全智能的机器将在二十年内出现。然而,许多个二十年已经过去,就现实中人工智能领域的发展状况而言,尽管相关技术取得巨大进步,但相较于过往的美好愿景仍然差距甚远,“完全智能”的实现仍遥遥无期。

 

早期科学家们之所以预测真正的人工智能很快就能出现,其乐观源于一个事实:彼时的智能程序已经能成功解决复杂的代数问题和证明几何定理,并且可以像专业棋手一样下国际象棋。逻辑似乎很简单:对于普通人来说,无论是代数几何,还是高超棋艺,都是极具挑战性的任务,所以就被视为“智能”的象征;而诸如识别一张桌子和一束花,或者是用腿自由行走,这些行为属于“常识”或“本能”的范畴,根本就不需要动用“智能”。以此推论,当机器能够轻易解决数学推理等困难问题时,那相对容易的任务自然就更不在话下了。这是古典人工智能主义时期通行的想法,在很长一段时间内,人工智能的发展方向受其统摄,研究者通过攻克一道道技术难题,来证明AI的“智能”程度正在不断深化。

 

但这种想法逐渐被证明是错误的。因为时至今日,尽管人工智能已经能轻易打败人类最高明的棋手,图像识别、逻辑推理等技能更不在话下,但是我们仍然不得不承认一个事实:现在的人工智能并不是真正的“智能”——它们仍需人类提供数据、设立模型、给定程序和架构,并且只在特定领域、特定规则的限制下才能发挥作用。在此情形之下,AI所作出的种种行为,实际上并不是自我思考的产物,而是程序机械化运作的结果,它不会真正进行自我判断,更别说拥有直觉、感知、意识、情感等人类才有的属性。可以说,古典人工智能主义错误理解了“智能”的本质。

 

其实早在1980年,就有科学家对这一问题进行了阐释。汉斯·莫拉维克等人发现,与刻板认知不同,人类所拥有的高阶能力(比如推理)只需要非常少的计算能力,相反,一些无意识的技能和直觉却需要强大的运算能力。莫拉维克指出,“要让电脑如成人般下棋是相对容易的,但是要让电脑有一岁小孩般的感知和行动能力却是相当困难甚至是不可能的”。这一发现被称为“莫拉维克悖论”,它揭示罗人工智能所进行的那些看似复杂的“智能任务”,其实与真正的人类智能并无可比性。

 

“人工智能之父”马文·闵斯基也认为:对技术人员来说,最难以复刻的人类技能实际上是那些无意识的技能。某种程度上,在人工智能领域,迄今为止已经攻克的逻辑问题反而是最无关紧要的,因为这些问题很容易通过机器进行解决,但人类的一些简单行为,实际更难实现。比如,一个几岁的婴儿就能轻易辨识人脸、随意走动、自发性地哭闹喊叫,但这些看似简单的人类智能行为,对AI来说却远比登天还要困难。

 

 

二、“身体”对人工智能缘何重要?

 

其实前述讨论所围绕的主线,还是关于AI智能程度的差别。2017年,密歇根州立大学的Arend Hintze在《理解AI的四种类别》一文中,提出了广为认可的“人工智能四级分类法”:

 

1.响应式:AI无法产生记忆,不能利用过去的经验进行决策,它们只为完成特定任务所设计,不能胜任其他任务,这是最基本的AI类型;

 

2.有限记忆:AI的当前行为能够参考刚刚发生的事件,但记忆是瞬时的,无法用于未来决策;

 

3.心智理论:这是一个心理学术语,处于此阶段的AI能够根据他人的行为推导并理解其想法和动机,这一类型的AI能够归纳出周围环境和预知交互的其他表征;

 

4.自我意识:AI的终极能力。

 

从程度上看,现阶段的人工智能在第一、二阶段进展已足够迅速,勉强能实现第三阶段的部分功能,而第四阶段还遥遥无期,因为它显然属于“人类智能”的范畴。Hintze的四级分类法也遭到了一些批评,原因就在于第三、四阶段之间的鸿沟显然太过巨大。

 

其实早于Hintze,更为通行的分类方式是“弱人工智能”和“强人工智能”,二者也是在智能程度上有所差别。弱人工智能主要是作为辅助人类的工具,它能在特定领域、特定规则的限制下进行系统阐述和检验工作,但它并不能实现真正意义上的推理与解决问题,因此不具备真正的“智能”,我们现在所能见到的AI,基本都属于弱人工智能的范畴。相较于此,强人工智能就不仅仅是工具的角色了,它具有知觉和理解能力,甚至拥有自我意识和价值观体系,在某种意义上,它本身就是一种与人类并存的全新文明。

 

谈及弱人工智能和强人工智能的区分,必须提到哲学家约翰·塞尔。他通过著名的“中文屋实验”,发现计算机程序纯粹是按照句法规则组织起来的,尽管机器可以做到对人类行为的高度模拟,甚至在某些地方可以超越人类,但它却是没有理解能力的,不能像人一样进行认知活动。这一发现揭示了彼时人工智能的瓶颈。

 

为此,塞尔引入“意向性”概念,用以解释人类智能与人工智能的区别(实际也是强人工智能与弱人工智能的区别):“人的一言一行在多数情况下都是由自我意识引导完成的,积极而主动;而机器所做的每一件事都需要人事先制定好,机械且被动”。“意向性”就是划分主动与被动的界限。

 

根据塞尔的定义,“意向性”是某种心理状态的特征,此种特征使心理状态指向或涉及世界中的客体或事物状态。换言之,真正的“意向性”产生于与世界的交互,从环境系统和客观事物中生成。这种“交互”是人类意向性的基础,它使人类获得对世界的理解与感觉意识。

 

如果机器要实现真正的智能,首要解决的问题就是海量背景知识的学习,其中包括各种常识,也包括世界运作的方式。这些知识是无穷无尽的,并且难易体系化,除非AI能够实现摆脱人类给定数据意义上的、真正的“自我学习”,否则永远无法掌握这些背景知识。

 

而感觉意识,也缘于与世界的交互。比如“辣”这种感觉,源于吃辣的食物时舌尖上的痛感,红色辣椒、满面通红的视觉,以及极具刺激性的嗅觉等等,它们共同组成了我们对“辣”的认识。它不仅是一种生理性的感受,更源于我们与客观事物的真实交互,进而将这种综合性的感知内化为脑中的意识,并作为指导所有行动的先验性标准。

 

而人类与外部环境、客观的交互,都需要由“躯体”这个中介来完成。但AI是没有“躯体”的,它只能和人类给定的数据交互,却不能从与环境的互动中获得“常识”,也就不会形成自我感受和意识。反言之,如果要让AI具备意识,首先就要赋予它一个可以自己控制的躯体,并像普通个体一样融入物理世界与人类社会。

 

 

 

三、具身性与强人工智能

 

让人工智能拥有一个“身体”,这是具身性人工智能研究路径的主要观点。此路径的生成依托于20世纪五六十年代兴起的“认知科学革命”,并直接受其中“具身—生成取向”的影响。这一取向所主张的“具身认知”假设,认为认知过程和思维过程并非是在智能体内部发生的,而是发生在智能体与环境的自适应交互之中。

 

AI科学家吸取“具身-生成取向”的理论核心,形成了人工智能研究的“行为学派”,关注智能体与环境的互动。早在数年前,行动学派的坚定支持者罗德尼·布鲁克斯就提倡制造一种没有辨识能力,只有感知和行动能力的机器。他将这个机器称为“新人工智能”,是完全跳脱传统定义的人工智能。

 

布鲁克斯认为,为了使机器人获得真正的智能,必须实现它的“躯体化”。借助于这具躯体,它能够自主移动、生存、同这个世界交互,进而感知、思考、生成意识。在布鲁克斯看来,这个世界就是描述它自身最好的模型,它包含所有研究所需的细节,而理解它的诀窍就在于亲身接触、亲身感知。

 

布鲁克斯的做法体现了具身认知论的思想核心,即从基础开始模拟人类,进而使机器获得媲美“人类智能”的自主思维能力——通过“自下而上”的路径,构造出真正的人工智能。要知道,日常生活世界远要比科学世界庞大、复杂得多,其蕴含的数据资源和知识资源,纵使有再多数据库也无法完全覆盖。古典人工智能主义在忽略“躯体”要素的同时,实际上也忽略了外部世界诸多丰富的细节,以此为主导制造的大多数计算机程序,除了编程者的控制指令,并没有与这个世界真正建立起联系。

 

人工智能的具身性转向,要求AI具有物质意义上的感觉器官,藉此外部世界提取信号;与这些感觉器官相连的是分层存储系统,它们与人类大脑皮层工作原理类似,能够存储从外部交互中获得的信号。通过反复训练,AI就能够通过感官系统和记忆系统构建起它自身关于世界的模型,进而能够依据过去的经历进行类推,并对未来事件做出预测,为新问题提供解决方案。这条路径,正是完美地模拟了人类意识的生成方法。此时的人工智能,如果按照Hintze的四级分类法来衡量,就已经突破了第三阶段并向拥有自我意识的第四阶段迈进。

 

这条路径的发展比想象中要快得多,以罗德尼·布鲁克斯为例,他在20世纪90年代就已经设计出实体化的“火星机器人”。而科技公司Willow Garage开发的Personal Robot 2机器人也是具身性人工智能的重要标志,它拥有两条手臂、可开合的夹爪,头部、胸部、肘部上安装有高分辨率摄像头、激光测距仪、惯性测量单元、触觉传感器等,PR2能够借助这些设备直接感受物理世界信号,由于采取了模糊决策控制,因此PR2不需要编程就能学习新事物。前段时间,引起诸多讨论的“机器血液”也是其中一环,它由康奈尔大学等机构研发,本质上是供机器人使用的液体电池,但它既有能量存储,又有动力传导的功能,除供电之外,还能够以液压的形式控制机器人运动姿态。

PR2机器人

 

 

四、结语:奇点的迷思

 

美国未来学家雷蒙德·库兹韦尔曾经提出“奇点”理论(the Singularity)。该理论预言,在2045年,强人工智能会出现,并具有幼儿智力水平,这就是“奇点”时代。而在这个节点来临后的一个小时,人工智能就能立刻推导出爱因斯坦的相对论以及其他作为人类认知基础的各种理论;一个半小时后,这个强人工智能将进化为超级人工智能,智能瞬间达到普通人类的17万倍。

 

我们能够大体理解,为何人们在强人工智能这个方向迟迟不能推进,一方面确实是现实需要不足且技术手段受限,而另一方面,以“奇点”理论为代表的诸多预言以及各种科幻电影的负面呈现,它们所预示的技术脱离人类控制、AI对人类的替代,使恐惧心理、忧虑心理始终环绕在人工智能的发展过程中。

 

但实际上,以当前人工智能发展的水平来看,这种担心其实很不必要,真正迈向“强人工智能”还有诸多技术难题需要攻克,在短时间内几无可能。与其被无谓的忧虑束缚手脚,不如谨慎克制地推进技术发展,丰富人工智能的应用场景,让它能够更好服务于人类,这或许才是正确的态度。