为什么人工智能法学是一场学术泡沫?

阿尔法狗的愤怒

五六年前,由阿尔法狗引发的人工智能热潮很快席卷了法学圈子。新的学术增长点出现了。人们津津乐道,假如造成了有意识和人格的机器人,法律如何应对?我的一个学妹即将在一个大律所参加一个讨论会。她把讨论题目给我。题目大概是这样的:

小明参加某公司组织的与机器人阿尔法狗的围棋比赛。比赛之中,小明连胜三局。阿尔法狗“恼羞成怒”,掀起机器臂将小明打翻在地,造成其重伤。问题:在这场事故中,组织者,阿尔法的生产者和阿尔法狗等,哪一个应当对小明的伤害负法律责任?

这就是大所的敏锐和逼格。我不知道这个题目是由某个老成的律师,还是由某个刚从法学院毕业的、他们的学长或学姐设计的。总之,法学院和大律所的学术品位向来一致。

这个题目的设计者是否意识到,一个机器人“恼羞成怒”意味着什么?它得有自尊心和羞耻心。要有自尊心和羞耻心,得有完整的意识和人格。而要能如此,必须对自身和外部世界有异常丰富的感觉和知识。出题者或许没有问自己,如果有这样一个机器人,到底意味着什么?他或她的目的仅限于一个假设:

假如机器人跟人一样,那么会怎么样?

多少年过去了,整个人工智能法学圈,仍然没有摆脱这种虚假的反事实假设和推理。在这个假设还只是一个反事实假设时,一切关于它的推理,要么是虚假的,不可判定的,要么和除去人工智能障眼法的普通法律推理没有差别。

法律基于对人和社会特别根本的假设

任何简单试用过 ChatGPT 的 3.5-4 版本的人都会惊异于机器对自然语言的处理能力。就在不久以前,许多人还像我一样,以为这是难以置信的。无论 ChatGPT 在其他方面的能力如何,这一点堪称壮举。前不久,据说 马斯克等人签署暂停所有 AI 实验 6 个月的倡议书 ,从而为 AI 安全性评估留有充足的时间。

这份倡议书中提到,AI 可能有“用宣传和谎言充斥我们的信息渠道”的目标。我们总是很轻松乃至随意地使用条件句来假设,但是,在严肃的推理场合,这可能会犯下严重的错误。说 AI 有了一个目标,意味着什么?什么是目标?拥有目标,对于人类乃至动物是太过平凡的事情,正因于此,我们可能并不清楚做出这个假设意味着什么。

或许,AI 需要具备意识或者说心灵。但什么是意识和心灵?AI 具备意识或心灵,仍是难以想象的。或许在不久的将来,就像 AI 对自然语言的处理一样,它们会继续给我们惊喜。或许它们将为我们重新定义意识或心灵,而不是相反,被我们关于意识或心灵的模糊经验和知识所定义。然而,这还需要很长一段时间。在这段时间内,无论 AI 的能力变得多么强大,它们离具有意识,离拥有一个目标,离具有情绪等等这些人的基质,都还很远,或者,永远。

在这个过程中,我们当然可以有意义地谈论 AI 带给人们的机遇和挑战。比如,AI 将令人难以置信地取代许多职业。新闻稿撰写员?×。办公室文书?×。中小学教师?×。插画师?×。影像科医生?×。驾车员?×。这些足够令人赞叹。然而,无论如何,AI 还不是人,或者说,不是拥有意识的理性存在物。

这个提醒不是对事实的无聊重申。有许多领域基于对人的本性的特别根本的假设,只有当 AI 的发展触及这些假设,这些领域才受到 AI 的实质影响。法律就是这样。法律的主体,必须是人或者人建立的组织。这建立在有关社会组织和社会生活的一般真理之上:社会是由人来组织起来的,人是社会的个体,享有权利,履行义务,设定目标,付诸行动,提供理由。

如果 AI 可以代劳一部分医生的工作,对于普通患者而言,被 AI 诊治和被人诊治,在效果上没有差别,那么我们是否可以将医疗事故的相关概念用于 AI?如果发生了医疗事故,相关的法律责任人是 AI 还是 AI 在法律上的财产权利人,包括生产、销售、出租、租赁、使用、收益者?如果 AI 可以取代一部分法官的工作,那么枉法裁判的相关概念是否适用于 AI?对于使用 AI 创作的文艺作品,比如电影剧本、小说或画作,是否应当将著作权赋予 AI?

这些假设现在在理论和实践上并没有意义。随便翻开一本研究 AI 著作权的法学学位论文,你会被告知,AI 多么特别,发展多么迅速,能力多么突出,AI 的某些作品现在让人无法分辨是否为 AI 或真人所作。

然而你应该问所有这些研究者一个问题:当 AI 作为个人或组织的财产是一个异常清晰的法律事实时,讨论赋予 AI 以著作权的意义什么?在讨论这些问题之前, 是否应当重新检讨两个问题:AI 在何种意义上值得被称为人,以及,是否法律的主体不限于自然人或法人那样的“人”?

于是,你会看到一些法理学的研究者,他们探究法律主体的哲学根据。他们问,这种根据是否可以经过修改,以拓展到哪怕是将来可以想象的 AI?

然而,横亘在这些弄潮儿面前的两个事实是他们不愿意正视的:第一,AI 现在以及在可想象的未来,不具有意识或心灵;第二,法律或法学这一领域,像许多其他领域那样,基于对人和社会的特别根本的假设。

这就决定了,在相当长的时期内,法律框架、范畴和基本预设为 AI 的能力发展留有巨大的空间。只要 AI 还没有意识,只要它还是财产,只要它不能向人提出抗议,只要它没有提出权利诉求,无论它的能力发展到何种程度,比如代劳大部分医生或法官的工作,就没有必要严肃开展所谓人工智能法学。

反事实与推理

面对上述两个事实,人工智能法学的研究者只好诉诸或明或暗的假设:他们想象,或者提议读者和他们一起想象,假如人类真的开发出了有完整意识和心灵的人工智能,以至于,无论从哪个方面,都不能拒绝称之为人,那么我们的法律实践和理论应当如何应对?这个想象的一个降级版本是,即使还没有实现这样的人工智能,想象它们有一天会实现,那么今天能够为明天做些什么准备?

这看起来多么合理。我们总不能坐等造出了人之后才思考如何应对它们吧?如果不愿意看到这样的人被造出来而毫无准备,那么对 AI 研究的行政法和刑事法的约束,现在就应当着手准备。这难道不是一个真问题吗?马斯克等人的倡议书的意思就是这样。

我承认,这是一个真问题。它是一个技术问题,一个公共政策问题,一个政治问题。它甚至一个哲学问题,但,不是法律问题。

目前几乎所有的人工智能法学研究,都在无视以上两个事实并辅之以一个想象性假设的基础上开展工作。这个研究的基本假设可以总结为:

假如人工智能接近或具有人的意识或心灵,法律应当如何应对?

有问题吗?难道不可以做这样的假设吗?让我们看看它的逻辑:

假如 x 变成 y,那么应当如何或者将会如何?

这样的假设到处都是。设想我追求一个女生,但遭到了她的拒绝。我问她:

假如我变成了百万富翁,你会不会接受我?

显然,这个问题是她能够有意义地回答的。百万富翁是一个经验性的事物。如果她并不看重或者并不特别偏爱金钱,那么她当然可能会做出否定回答。

但是,假设我问她:

假如我变成了天使,你不会接受我?

这与“假如我变成蜘蛛侠,你会不会接受我?”类似。假如她偏爱自然能力超凡的人,或许会毫不犹豫地做出肯定回答。如果这是一部小说的情节,或者是日常谈话的主题,并没有什么问题,但如果类似的问题发生在政治、法律、哲学和科学领域,就会有很大的问题。

为什么?因为这是一个基于反事实假设的推理,这样的推理,尽管可能被推理者特别真诚和严肃地提出,并不是真实的——这样的推理是不可判定的。“假设我变成了天使,你会不会接受我?”对于这个问题,我既不能肯定回答也不能否定回答,它是不可判定的。天使并不是经验性的事物。没有人在经验世界中遇到过天使,当然也从来没有出现过有关与天使一起生活的经验材料。天使从来都是被想象的,或者生活在超验的想象世界之中。所以,没有人可以对天使做一个经验性的推理。

我们不能滥用逻辑。从 x 到 y 的推理,需要在经验世界中曾发现和归纳的 x 和 y 的联系为基础。如果没有这样的基础,从 x 到 y 的推理就会失去约束,就会没有可以判定真假的根据。许多人以为,单凭一个想象,就可以做这样的假设或推理,那不过是由于语言的魔力。我们用“天使”这个词,或许再加上一些详细的描述,似乎足以意指那个东西。但我们不会成功。当做出那个假设,我们其实仅仅是在语词的世界中活动,没有接触到真实的世界,尽管如此,好像我们已用语词联系了世界。

做出假设是很轻松的、随便的。但是,许多假设仅仅在语词的世界中打转而已。然后,我们就以为在此基础上的推理是真实和平常的。

“假设,我变成了天使,你会不会接受我?”无论这个女生如何诚恳回答我,她所做的推理都是没有意义的。人工智能法学的研究者也处于这位女生的类似处境之中。“假设人工智能具有了意识或人格,那么法律上是否应当赋予它们权利主体资格?”多么轻松的假设!但是,这是根本没有办法肯定或否定回答,它是不可判定的。

所有类似人工智能法学研究者的处境,都依赖某种对语言和世界界限的忽略,以及对逻辑的滥用。过去宗教和哲学是这样,现在人工智能法学是这样。