人类是未来人工智能的垫脚石吗?

科幻小说家亚瑟·克拉克在1964年的一段视频中说:

未来世界中最聪明的物种不会是人或猴子,而是今天计算机的遥远后代……计算机将开始思考,并且最终将完全超越他们的缔造者。这应该令人类沮丧吗?我不这么认为。我们取代了克罗马侬人和尼安德特人,我们认为这是一种进步。我认为我们应该把成为更高阶生命的垫脚石视作一种特权。我怀疑有机或生物进化已经接近尾声,而我们正处在无机或机械物种进化的开端……

克拉克的观点代表了很大一部分人的想法:人类将会被自己制造的机器取代。对此,有两种想法紧紧地抓住人们的想象力:第一,这是不可避免的;第二,这是应当给予避免的。克拉克的建议是,应当在更大的视角下,比如在宇宙生命演化的视角下看待这个问题,这样看来,它不仅必然,而且可欲。

有一种想法十分流行:对于人工智能取代人类的问题,我们应该换一种视角,把人类看作漫长无垠的宇宙演化历程中的一环,看作可能是难以想象的更复杂更庞大生命体的一分子。

请想一下,按照目前的研究,各种元素上百亿年前经历了从无到有的历程,然后是太阳和地球的产生,然后是大分子团(比如能够自我复制的RNA分子)、蛋白质的产生,然后是原核细胞、真核细胞的出现,然后是单细胞生物、多细胞生物的漫长演化历程,直到今天我们看到的这个生物多样的世界。

我很早看过的一本讲述宇宙演化的书说,宇宙中从元素到生命的演化是未来物理学最重大的问题之一:宇宙是否必然经历这样的历程?物理学能否为物质和生命的历史建立一个统一的解释?

确实,从如此宏大的视角出发,人类成为未来生命的垫脚石没什么大不了的,哪怕是成为自己亲手制造的机器的垫脚石。这个想法鼓励人们放弃从人的视角考虑这个科学兼道德问题:在漫长无垠的宇宙时间线中,就像细胞充当动物微不足道的一分子那样,人类可能会充当难以想象的复杂和庞大生命体的一份子。

超越人的视角似乎让我们获得一种缓解。面对未来人工智能,第二个直觉性的想法——应当避免未来人工智能威胁到人类——如果不是错误的,也肯定是徒劳的。

试图超越人的视角来考虑类似问题,不仅幼稚,而且危险。这可以成为科幻小说和电影、日常谈话的一部分,但,不能成为严肃的科学、哲学、政治和法律思考的一部分。一个至关重要的事实是,无论细胞、蛋白质,还是成为人类食物或宠物的其他动物,都没有思考过这个问题。事实上,它们根本没有思想。如果不是因为人类替细胞想这个问题,细胞根本就不会有这个问题。

帕斯卡尔有一段很有名的话:

人只不过是一根苇草,是自然界最脆弱的东西;但他是一根能思想的苇草。用不着整个宇宙都拿起武器来才能毁灭;一口气、一滴水就足以致他死命了。然而,纵使宇宙毁灭了他,人却仍然要比致他于死命的东西更高贵得多;因为他知道自己要死亡,以及宇宙对他所具有的优势,而宇宙对此却是一无所知。

人类是会思想的存在物,这不意味着人类在宇宙中占据多么显著的位置。这意味着,宇宙中,无论渺小的还是伟大的,脆弱的还是坚强的,易朽的还是永恒的,都会成为人类思想的对象,直到可能有一天,思想不再存在。

人类是会思想的存在物,是一个不大不小的事实。这个事实深深影响了宇宙和人类:第一,人类思想的边界拓展到哪里,宇宙的边界就拓展到哪里;第二,人类一直将自己作为世界和万物的尺度和参照来思考所有重大问题。

最典型的例子是宗教。神被设想为宇宙万物的创造者。然后,人被设想为造物主最用心的作品。在人与造物主之间有着直接的联系。在许多宗教中,造物主创造万物供人类享用,人类的天职则是侍奉和取悦造物主。

宇宙的边界和人类思想的边界是重合的,这在哲学家宏大的思想图景中,更是如此。人是什么,人如何认知,人能做什么,是哲学家深深思考的最基本的一些问题。在他们思想图景中,世界是怎样的,在很大程度上取决对这些问题的回答,而且,人类过道德生活的能力和限度,与世界隐秘的原因或原则可能有某种联系。

还有,在现代政治哲学中人们熟悉的自然状态中,每个人其实扮演着地上的上帝的角色:每个人拥有自由,直接与上帝发生联系,他们在过上幸福生活的过程中所遭遇的麻烦,直接被上帝所关注。重要的是,在世界的终极原因和人之间,没有中介物。在考虑人类文明的种种法则时,没有天使、魔鬼和半人半兽的位置。洛克说,动物和植物被上帝创造了供人类享用。

当然可能设想,人类的创造物实际上只是更复杂更庞大的创造物的一部分,以至于,我们的宇宙可能是更复杂更庞大宇宙微不足道的一分子——我们的宇宙相对于这个宇宙,就如蛋白质相对于人体。休谟在《自然宗教对话录》中就表达了这个想法。

这意味着,第一,世界的边界远远大于人类思想的边界,第二,人类可能只是服务于更复杂更庞大存在物的工具。

但这不会成为科学和哲学的主流想法。因为所有相关的想法,都是空洞的,缺乏经验材料的。一切有关这些问题的推理,都是反事实的,因而是不可判定的。

人是什么?人如何认知?人能做什么?围绕这些基本问题,人类发展出了复杂庞大的哲学和科学体系。人类是怎么认识事物的?人类认识的限度是什么?人怎么才能确定自己所认知的事物是真实的?人类在整个宇宙中是否有被安排的目的?如果至善或正当真的是宇宙中客观存在的,那么人们的理性能力如何能够正确认识?如果人们能够正确认识,是否能够正确回应?人类在道德实践上的表现,是否说明了人类实践理性的缺陷,这一缺陷与宇宙背后隐秘的原因、原则或目的的联系是什么?

对这些问题的探索,事实上正成为人们积极思考人工智能的道德问题最重要的资源。直接的想法是,如果清楚我们自己是如何变得道德的,那么我们就更有把握使我们的受造物变得道德;如果清楚我们自己道德能力的缺陷,那么我们就更容易了解,在使我们的受造物尽可能有道德的过程中,我们无能为力的地方。

可以说,随着人工智能技术发展,人类比以往任何时候都更迫切需要一门道德科学,以准确回答类似这样一些问题:心灵如何正确形成和回应道德观念?因此,未来人工智能的开发过程中,机器的学习和思想过程,应当与它们形成和回应道德观念的过程联系在一起。这是全新的挑战,一般哲学、认知科学、实践哲学等等学科都应当参与其中。作为一名社会科学研究者,这是人工智能最吸引我的地方,它让我看到,为了使人工智能有道德,人类正被迫把道德变得一门科学,把哲学变成一门科学,即使只是在很有限的范围内。

现在可以总结下,为什么超越或放弃人的视角来思考人与未来人工智能生命的关系,是不可取的。

第一,人对于未来人工智能生命的关系的所有思想资源,都根植于人的视角。

第二,人将自己作为世界和万物的尺度和参照,所发展出了复杂的科学和哲学体系,是我们所能利用的最好的、最真实的资源。

第三,超越人的视角,不只是不可欲,更加不可能。

这些结论会使另外一些人感到欣慰。与那些建议超越人的视角的人的相反,一些人可能走向另一个极端,他们坚信,人类应当且能够阻止开发出威胁人类的人工智能,因为除了神,人是宇宙中至高无上的。这是一种误解。人类确实是世界和万物的尺度和参照,但更确切地说,“人是人所能认识的世界和万物的尺度和参照”。

有两种可能,第一,世界的边界真的与人类思想拓展的边界重合,假如有造物主,人类真的与造物物发生直接联系,是造物主精心制造的东西。第二,世界可能以无数种意想不到的方式存在,比如,人类所处的世界,可能只是无数平行世界的一个,可能只是更高阶生命的某个装置中的动画,可能只是高维度生命消亡之前的低维度延续,等等等等。

有一种不那么玄乎的可能情况是,人类是更复杂更庞大生命体的准备阶段。未来可能是这样的:尽管认识到不应当开发威胁人类的人工智能,但是由于种种原因,比如由于人类实践理性的缺陷或政治经济文明的缺陷,或者由于造物主的暗中安排,人类最终还是制造了超越自己的人工智能,并最终被完全取代。

这可能是最有趣的一点。想象这样一种情况,有助于提醒我们理性能力的可能限度。然而,无论如何,这样两种情况都无法被纳入严肃的思考和推理当中,因为它们是反事实的。宇宙中只有人在思想,人是世界和万物的尺度,截至目前,这两点仍是事实。这决定了,真正有意义的思考和推理,只能从人的视角出发,只能运用人的认识能力和道德能力。

那些超越人的视角的尝试,不把人的认识能力、道德能力作为前提的思想和行动,被证明要么是幼稚的,要么是危险的。

在《三体》中,叶文洁对人类文明感到失望,寄望于外星生命对人类文明的改造。她回应了意外发现的外星生命的信号。她做件事的理由是,假如它们有能力穿越几百亿光年来到太阳系,那么它们一定远比人类更文明,包括远比人类更有道德。

这就是一项试图超越人的视角所做的基于反事实的推理,它带来了太阳系有史以来最大的灾难,所幸,只发生小说之中。这个推理想象了一种存在物,它们在我们的经验世界中根本没有发现过,并且对它们的道德能力和道德偏好做了毫无根据的推断。我们的确只熟悉人类作为最高存在物的世界的道德状况,我们了解自己的道德能力的局限。当设想人类降级,一个更高级的存在物“加入”世界,我们就完全失去了方向,我们其实对此根本没有办法做任何严肃的推理,所能做的只是幻想和猜测。

可以这样简单理解这件事。想象一下,整个宇宙是一片湖,我们是其中游来游去的蝌蚪。如果在我们所能发现的历史中,从未经历过石头落入湖中的事件,尽管这件事是可能想象的。但是,如果真的发生这件事,有很大几率,会超乎所有蝌蚪的想象。

总之,面对未来人工智能取代人类的问题,我们不能放弃人的视角,尽管我们可以想象,这种视角可能会是多么的局限。