- 审判机器人
- (以)加布里埃尔·哈列维
- 11203字
- 2021-03-31 07:59:10
第二节 进化与退化:机械犯罪人
在现代社会,技术和法律常常处于两个对立的极端。技术促进新发明的进化,而法律则更倾向于保守。例如,尽管原则上技术可实现人类克隆,但大多数国家的法律却禁止克隆,或者对此发起公共辩论。技术认为的进步,法律可能将之视为退步。法律有时是受社会的道德观念启发,有时则由人类的恐惧激发。以人工智能技术为基础的高级机器人产生的机械犯罪人便是如此。
一、服务与保护:人类对人机共处的恐惧
21世纪初,先进技术的研究报告就曾在预测21世纪的第三个或第四个10年之初,新一代机器人将支持人机共处。2004年,在福冈(Fukuma)颁布的《世界机器人宣言》中表示,这些机器人有望与人类共存,给予人类生理帮助和心理帮助,而且会为实现社会的安宁与和谐作出贡献。
一般认为,这类机器人可分为两大类型。第一类是新一代工业化机器人,具备制造各类产品、完成多项任务,以及和人类员工合作的能力。第二类是新一代服务型机器人,能够完成房屋清洁、保安、护理、生活支持和娱乐等任务,以此在家庭和工作环境中与人类共处。对该技术进行预测而出版最多作品的作家们,也对使用这些机器人对人类和社会可能造成的危险程度进行了评估。这些评估引发了关于使用机器人的安全性的争论,而不管预测危险的真实水平如何。
只有在确认事物的危险性时,人们才会考虑安全性。人工智能和机器人科学领域技术进展的加速引起诸多恐惧。例如,人们对护理型仿真机器人护理员的第一反应是害怕它会伤害其帮助的人类。是不是所有人类都做好准备让机器人看护他们的婴幼儿?绝大多数人并不是技术专家,对他们一无所知的事物十分畏惧。
再者,人类往往会用科学幻想来填补由于知识匮乏和不确定性所造成的空白。过去科幻作品很小众,粉丝很少。现如今,好莱坞使科幻风靡全球。20世纪八九十年代和21世纪中,票房最高的电影都是科幻电影,其中大部分消费了人类的恐惧。在亚瑟·C.克拉克(Arthur C.Clarke)小说改编而成的《2001:太空漫游》(1968)中,宇宙飞船的中央计算机脱离人类的控制并企图刺杀机组人员。在数人死亡后,人类才通过关闭计算机而恢复安全。
在终结者系列电影中,机器控制了人类,人类几近灭绝。为数不多的幸存者奋力抵抗机器,只有关闭机器才能确保人类存续。而拯救者自身恰巧是一台机器,它最终自行关闭。在黑客帝国三部曲中,机器统治地球,奴役人类,以生产能量供其所用。机器通过创造一种被称为“黑客帝国”的虚幻现实来控制人类的思想。只有少数几个人逃离了帝国,为摆脱机器统治实现自由而奋斗。《机械公敌》(I, Robot)(2004)由艾萨克·阿西莫夫(Isaac Asimov)1950年作品集中的系列故事改编而成,电影中发生了先进机器人伤害人类的案件,一个机器人被怀疑是凶手,而人类主人公之一是一位不相信机器人的警察。整个故事情节都围绕机器企图控制人类展开。
好莱坞的影响巨大,所以,我们可以合理预计,对人工智能和机器人的恐惧将支配公众的思想。越先进的机器人越危险。科幻小说和电影中的热门话题都是机器人反抗人类并控制人类。因此,人们在想到高级机器人和技术时,不仅会考虑到它的实用性和无可非议的优势,还会考虑如何保护自己。人类只有在恐怖异类——机器——身边能感到安全之后,才会接受人机共存的想法。
问题在于,可以用什么保护机制来确保人类在与机器人和人工智能技术共存时的安全?科幻小说首次对该技术发出了警报,并提出了保护建议。建议的第一个保护圈聚焦于安全的道德领域。道德问题是针对这些实体的设计员和程序员,以确保内置软件可以防止任何不安全的技术活动。艾萨克·阿西莫夫是众多试图创建机器人道德的先贤之一。
1950年,阿西莫夫在其九个科幻故事的作品合集《机械公敌》中,曾提出著名的“机器人三原则”:“(1)机器人不得伤害人类,或者是通过不行动让人类受到伤害;(2)机器人必须服从人类赋予它的指令,除非该指令和第一原则产生冲突;(3)在不违反第一原则和第二原则的前提下,机器人必须保护自身存在。”在20世纪50年代时,这些原则被认为具有创新性,曾经恢复了恐惧公众的一些信心。毕竟,伤害人类是不被允许的。
阿西莫夫的前两条原则表明,在处理人工智能机器人相关的安全问题时,应当以人类为中心。这两条原则还反映出一个普遍路径,即随着机器人逐渐在工业厂房之外承担着越来越密集和重复的工作,安全条例支持“人类高于机器人”的观念也变得越来越重要。第三条原则跨越了以人类为中心和以机器为中心以确保安全之间的界限。机器人的功能性目的是满足人类的需求,因此,为了更好地完成这些任务,机器人应该保护好自己,并作为人类的财产发挥作用。
但是,正如阿西莫夫坦言,这些道德规定或原则仍然不够充分、有些模糊而且不够广泛。例如,在警局工作的机器人试图保护被罪犯劫持的人质,罪犯企图对一名人质开枪。此时,机器人明白唯一能够避免无辜者受害的方法就是射杀罪犯。但是,第一原则既禁止机器人杀害或伤害罪犯(通过行动),又要求不能让罪犯杀害人质(通过不行动)。机器人除了遵守第一原则以外别无他选,此时我们期望机器人能怎么做?确实,我们又能期望一名人类的警察做什么呢?任何解决方案都违背了第一原则。
审查另外两条原则并不能改变结果。如果一位人类指挥官命令机器人射杀罪犯,机器人仍会违背第一原则。即使指挥官命悬一线,机器人仍不可能采取行动。而且,即使罪犯威胁要炸死50名人质,机器人也不得为了保护人质的生命而伤害罪犯。如果指挥官也是机器人的话,情况会变得更加复杂,但是结果不会有任何不同。如果机器人自己身处危险,第三原则也不会改变结果。
在一个人类和机器人共处的社会中,警局的机器人陷入进退两难境地的情况屡见不鲜。在这样的社会中,机器人和人工智能技术的任何活动都会遭遇这种困境。考虑一下,医疗服务型机器人为了挽救患者生命需要完成一项侵入式紧急外科手术,但是却遭到患者反对。机器人无论行动与否都会违背阿西莫夫第一原则,而上级的任何指令都不能解决该困境,因为行动指令会对患者造成伤害,而不行动指令则会造成患者死亡。
如果机器人可以选择不伤害人类,困境会更容易解决,但是这又会引发其他问题。在前面机器人作为监狱守卫的例子中,如果囚犯试图逃跑而唯一的阻止方式就是伤害他,这时机器人又该怎么做?性爱机器人被要求施虐时,又该怎么做?如果答案是不行动,那么,问题是,既然机器人的目标行为将违反第一原则,那最初为什么要使用机器人呢?
如果人类确定人工智能机器人和其他人工智能实体的命运是在各种情形中服务人类、保护人类,这些实体本身就不免需要作出艰难决定。术语“损伤”(injury)和“伤害”(harm)的范畴可能比特定身体伤害更加广泛,而这些实体可能会用身体伤害以外的其他方式伤害人类。而且,在很多情况下,为了避免产生更大伤害,就必须造成某种伤害。在大多数情况下,这种决定会牵涉复杂的判断,超出简单教条的伦理准则的范畴。
人们对阿西莫夫原则的争论引发了关于机器道德责任的探讨。机器人、机器和人工智能实体的道德责任是对机械人无尽探索过程中的一部分。但是,机器人参与到工业环境和私人环境下人类的日常生活之中,不管它们是否受制于道德责任,它们确实会时不时地造成伤害。因此,伦理体系不适合解决这一问题。伦理包含道德责任、复杂的内部判断和不适用规则。那么问题是,什么可以解决机器人功能、人机关系和人机共存的问题呢?答案可能是刑法。
二、进化与退化:作为副产品的机械犯罪人
人工智能技术使得很多工业领域和私人领域都能使用机器人。人工智能研究与时俱进,人工智能技术在未来必然会更加先进,而工业领域和私人领域对该技术的应用也会扩大人工智能机器人将来承担的任务范围。任务越高级、复杂,失败的可能性就越大。“失败”是一个广义术语,在该语境中包含了多种情形。常见的情形就是机器人没能成功完成其承担的任务。但是,有些失败的情形可能会对个人和社会造成伤害和危险。
例如,监狱守卫机器人的任务是使用最低武力阻止囚犯逃跑。企图逃跑的囚犯可能会遭到机器人守卫的阻止,而机器人在紧紧控制囚犯时会对其造成伤害;此时,囚犯就会声称机器人滥用武力。分析机器人的行动会发现它本可选择更温和的行动,但机器人却已将真实的风险评估得更为严重。谁应该为这个伤害负责?
这类事例提出了重要问题以及很多关于人工智能实体责任的争论。如果从伦理角度分析,正如大多数科学家所主张,该情形下的失败应归咎于编程员或设计员,而不应归咎于机器人。机器人不会强化必要的道德责任,无需对其行为造成的任何伤害负责。就此而言,只有人类能够强化道德责任。机器人仅仅是程序员手中的工具,无论其软件质量或认知能力如何。该论点与机械人争论密切相关。
对机器和人类而言,道德责任都确实是高度复杂的问题。总体而言,没有任何一个关于“道德”的定义能为所有社会中的所有个人都接受。义务论道德(Deontological morality)以及目的论道德(teleological morality)是最广为接受的两种定义,在很多情形下两者主张的行动完全相反。纳粹分子认为自己具有义务性道德,但是大多数社会和个人并不认同。如果道德难以评估,那么在我们已审查的此类案例中,道德可能并不是最合适和最有效的责任衡量方法。
在这种情况下,人工智能实体的责任问题往往又回到关于机器成为类人(human like)的概念性能力的争论上,因此对机械人的无尽探索就变成对人工智能责任的不断探索。此处的相关问题超出技术问题范畴,而主要是社会问题。在对个人和社会造成伤害的情形中,作为人类社会整体,我们应该如何来评估责任呢?
日常生活中处理这类情形的主要社会工具是刑法,刑法对伤害社会或危害社会的个体的刑事责任作出规定。刑法还具有社会教育价值,因为它教育个体在社会中应如何行事。例如,刑法禁止谋杀。换言之,刑法规定谋杀,并禁止谋杀。刑法的价值在于:在个体实施谋杀行为后,对其进行刑罚,以期在事前教育个体不要实施谋杀行为,而这正是社会共同生活规则的一部分。因此,刑法在社会控制中发挥着主导作用。
在任何社会中,刑法都是最有效的指导个体行为的社会措施。尽管刑法并不完美,但在现代社会环境下,刑法却是最为有效的措施。而且,因为刑法对人类个体十分有效,那么通过刑法审查非人类实体,特别是人工智能实体,也具有合理性。当然,评估刑法对机器有效性的第一步是审查刑法对机器的可适用性。因此,在该情形下,问题在于机器能否成为刑法的适用对象。
因为刑法并不依赖道德责任,所以关于机器道德责任的争论与目前问题无关。虽然有时刑事责任、某些类型的道德责任和某些类型的伦理责任之间存在重叠,但这种巧合对于追究刑事责任而言并非必要。刑法适用于机器的问题还涉及两个相互关联的次要问题:(1)刑事责任是否适用于机器?(2)刑事处罚是否适用于机器?
第一个问题是刑法的核心问题,是否赋予刑事责任取决于是否满足刑事责任的要求。只有满足刑事责任的要求,惩罚——即人类社会如何惩罚机器——的问题才会出现。本书对这两个问题的回答都是肯定的。第二章至第五章研究第一个问题,第六章研究第二个问题。如果接受本书中的肯定答案,那么事实上,我们已创造了一个全新的社会实体,即机械犯罪人。
机械犯罪人是人类努力创造机械人不可避免的副产品。人类对机械人的无尽追求所激发的技术能力促使人工智能技术高速发展,使人工智能能够比以往任何时候都更好地模仿人类思维及其相关技能。目前的人工智能技术具备的能力在几年前来看只属于科幻小说,该情形已经存在于整个20世纪后半期,并持续至21世纪。
技术发展道路上的每一次进步都意味着机械人的每一次进化。对机械人的无尽追求形成极高的上限和下限,事实上由于界限如此之高,必须成为人类才能被视为机械人。因此,追求永无止尽,技术竞赛永不停息。但是,刑事责任并不一定要求具有所有人类技能。要成为违法犯罪人,个体根本不需要使用所有人类技能,无论其是否拥有这些技能。
考虑一下,我们在前文已经讨论过的创造力属性。当然,盗窃分为很多类型。有些被认为具有创造性,有些则被认为不具有创造性。在审查特定犯罪的刑事责任时,甚至根本不会考虑其所反应的人类的创造性技能。无论违法犯罪人在实施盗窃行为时是否具有创造性,我们都会追求其盗窃罪的刑事责任。创造力并不是追究犯罪人刑事责任的条件之一,因此任何法律程序都不会予以考虑。
只要满足特定犯罪的刑事责任要求,就无需考虑其他资质、技能或想法。有人可能会反驳道,尽管盗窃并不要求创造性,可人类是具有创造力的,因此刑事责任也应该同样适用。在讨论机械人的无尽探索时,该观点或许有意义,但在刑事责任问题中却毫不相关。在追究刑事责任时,与实施特定犯罪无关的人类技能绝不会被纳入法律程序中。
因此,无论犯罪人在实施犯罪时是否具有创造力都与追究刑事责任无关,因为刑事责任没有这种要求。在实施犯罪之外,犯罪人是否具有创造力也无关紧要,因为法律程序只会关注与犯罪实施相关的事实。对于宣告机械人诞生的其他必要属性也是如此。
因此,创造机械人的竞赛似乎还发展出了意义非凡的副产品:一种因缺乏机械人技能无法完全模仿人类思维而不能称之为机械人的机器;但是,该机器的技能却足以完成工业环境和私人环境中的各类活动。确实,就工业和私人应用而言,缺乏某些技能甚至可以视为一种优势,尽管这在人工智能研究看来是种劣势。该副产品能够完成的活动之一就是实施犯罪。
换言之,尽管这种副产品无法完成很多有创造力的活动,但却足以实施犯罪。原因在于刑法对赋予刑事责任和处以刑事处罚规定了定义和要求。追究刑事责任和处以刑事处罚需满足的要求远远低于创造机械人的要求。在刑法范畴中,只要满足这些要求就足以追究刑事责任,无论刑法主体是否为人类。该逻辑适用于人类犯罪人和非人类犯罪人,例如公司法人。
因此,只要满足刑法的相关要求,就能将人类个体和法人之外的主体加入现有的庞大刑法主体群中。这些主体可能就是所谓的机械犯罪人,不是一般机械人的子类型,而是机械人的一种副产品。该副产品的科技能力尚不够发达,因为它可能属于这种机器类型,它们缺乏理想机械人(如果实现的话)应有的高级技能属性。
从技术科学角度来看,机械人的每次进展都应视为一种进步(或“进化”),而副产品——机械犯罪人更多的是一种退步(或“退化”)。机械犯罪人是登顶征途上的一个停靠点。这是一座相对低级的山峰,因为刑事责任的要求远远低于理想机械人的要求。但是,机械犯罪人并不是一场奔向低谷的竞赛,而是登顶征途上的一个停靠点。从刑法角度来看,技术研究可能正是停在该点之上,因为刑法可适用的实体已经存在。
如果机器的范畴技术在基础型(“傻瓜型”)机器和机械人两极之间延伸,那么机械犯罪人则处于中间的某个位置,或许更加靠近机械人一端。但是,如上文所述,机械犯罪人的出现是刑法要求与机器的相关技能和能力两相符合的偶然事件。有些研究人员主张,目前的法律不够完善而不足以应对人工智能技术,有必要开发一个名为机器人法律的全新法律领域。
本书认为现行刑法足以应对人工智能技术。而且,如果技术能向着创造机械人快步前进,这将使现行刑法更适于应对人工智能技术,因为该类技术模仿人类思维,而人类思维已经受制于现行刑法。因此,人工智能技术越接近完整模仿人类思维,现行刑法就越能够适用。
通过刑法约束人工智能机器人,或许能够缓解我们对人机共存的恐惧。刑法在给予人类的个体信任中发挥着重要作用。每个个体都知道,社会中所有其他个体都必须遵守法律,尤其是刑法。任何个体违反法律,社会都会通过相关强制力量(警察、法院等)强制执行法律。如果任何个人或团体不受刑法约束,其他人的个体信任将受到严重伤害,因为那些不受刑法约束的人没有动力去遵守法律。
同样的逻辑对人类、法人和人工智能实体同样适用。如果上述任何实体不受刑法约束,那么其他实体的信任就会受到伤害,广而阔之,整个社会的信任都会受到伤害。因此,社会必须竭尽全力使所有活跃实体都受到刑法约束。有时,这需要从概念上改变对社会的一般认知。比如,17世纪时,当人们对法人不受刑法约束的恐惧成为现实之时,刑法就对其适用。为了缓解人类的恐惧,或许是时候对人工智能实体采取相同行动。
但是,还有一个问题必须澄清。地球上还有其他生物和我们共同生活。这些生物就是动物。那么,要问的问题是,为什么不能将关于动物的法律规则适用于人工智能实体呢?
三、动物法律模式不适用于人工智能技术
在人类眼中,并不是地球上所有生物都是智能的。人类认为智能的动物大多是哺乳动物。尽管如此,人类已经和动物共同生活了几千年。从人类为了自身利益首次驯化动物起,这种共存就变得非常集中。我们取其产(牛奶、鸡蛋等),食其肉,受其护(例如,护宅犬),占其用(例如,用于农耕、运输等),还会为满足工业需求和私人需求而利用动物。因此,自古以来法律就设法解决人和动物共处的问题。
通过研究古代和现代关于动物的法律,我们发现,法律所关注的是两个重要方面。首先,在法律关系上,动物是人类的财产;其次,人类负有善待动物的责任。第一个方面包括人类对动物具有所有权、占有权以及其他财产权利。因此,如果动物造成了损害,那么对动物拥有财产所有权的人类就应对该伤害负有法律责任。如果人类被狗攻击,那么,狗的主人应该对它造成的全部损害承担法律责任。
在大多数国家,这些都是侵权法的内容,虽然在有些国家这也和刑法相关,但无论是何种情况,都是人类(而非动物)承担法律责任。从古至今,只有被认为对社会过于危险的动物才被会剥夺行为能力。剥夺行为能力往往意味着杀死动物。古时候,牛用角顶伤人就是这种情况,狗在特定情况下咬伤人类亦是如此。没有法律体系会让动物直接受法律约束,尤其是刑法,不管动物是否智能的。
第二个方面,即善待动物的义务,针对的是人类。人类由于具备人类智能而比动物高级,所以动物被视为处于弱势。因此,法律禁止人类滥用权力虐待动物。这些法律规定的主体是人类,而不是动物。被人类虐待的动物即使受到损害,在法院上也没有任何地位。在这些案例中,法律上的“受害人”是社会,而不是动物。所以,在大多数情况下,这些法律规定是刑法的一部分。
社会控告虐待动物的人是因为这种虐待行为会危害社会,而不是危害动物。这种动物保护和财产保护有细微的差别。绝大多数刑法典禁止损害他人财产,是为了保护占有人或所有人的财产权。但是,在虐待动物案例中,这种保护和财产权毫无关联。狗的合法主人可能会因为虐待狗而被起诉,无论其是否对这只狗享有财产权。自古存续至今的这些法律规定形成动物法律模式。问题是,该模式为什么不适用于人工智能实体。
我们考虑三种实体:人类、动物以及人工智能实体。如果我们希望将人工智能实体纳入人类刑法的规制范畴,就必须能够证明在刑法中人类和人工智能实体具有相似之处。确实,我们应该解释为何人工智能实体与人类更相似,而非与动物更相似。否则,动物法律模式将足以令人满意地解决人工智能活动的问题。因此,问题是,人工智能机器人和谁更相似:人还是狗?
在讨论对无人机和其他机器(包括“新一代机器人”)的控制问题时,曾对人工智能实体对动物法律模式加以审查。动物法律模式可以为上述情境下的某些法律问题提供答案,可是并不能解决核心问题。如果人工智能实体能够使用软件自己解决该如何行为的问题,那么有些法律责任难题仍然无法解决。人工智能实体比动物更易于传达复杂的想法。在多种情境下,外部知识和理性结论也是如此。
人工智能实体由人类编程,以符合人类形式逻辑推理。这形成人工智能实体活动的核心推理基础,因此,人工智能的计算可以通过人类逻辑推理来实现。绝大多数情况下,绝大多数动物都无法进行这种推理。这并不是因为动物不具有理性,而是因为动物的理性并非必须以人类形式逻辑为基础。感性(emotionality)在大多数生物(包括人类和动物)的活动中,都发挥着重要的作用;而且,它可能还为人类和动物的某些活动提供动力和动机。但是,机器却并非如此。
如果使用感性衡量,相较于机器,动物和人类更加接近。但是,如果使用纯理性衡量,相较于动物,机器可能和人类更加接近。尽管理性和感性相互影响,法律能够根据它们的可适用性(applicability)进行区分。法律(尤其是刑法),考虑的主要因素是理性,很少会考虑感性。例如,谋杀犯的怨恨、嫉妒或痛苦对他的定罪无关紧要;只有在少数进行防卫挑拨(the provocation defense)的情况下,法院才会考虑到犯罪人的感情状况。
另外,动物法律模式教育人类对动物怀有悲悯之心,如上所述,这是该模式的关键因素。但是,涉及人工智能实体时,这个考虑因素并不重要。因为人工智能实体缺乏感性的基本属性,任何情感行为都无法让它们悲伤难过、倍感挫折、失意沮丧或痛苦不堪,动物法律模式的这个侧面对人工智能实体而言毫无意义。例如,非因医疗需要而砍断一只狗的腿被视为虐待,在很多国家,可被视为犯罪。可是,没有任何国家认为卸掉机器人的手臂是犯罪或虐待,即使是仿生机器人,即使机器人被编程为能够对上述行动“感性”地回应。
因此,鉴于法律在评定法律责任时更倾向于理性而非感性,而且人工智能技术的理性以人类形式逻辑推理为基础,所以,从法律角度来看,在各个法律层面,人工智能技术都更接近于人类,而不是更接近于动物。因此,动物法律模式并不适合评估人工智能的法律责任。为了使人工智能实体受刑法约束,有必要运用刑事责任的基本概念。这个概念形成了刑事责任的一般要求,只有满足这些要求才能对任何个体(人类、公司法人或人工智能)追究刑事责任。
四、事故可能引发的技术进化
事故通常被认为是不幸的。但是,对于人工智能技术来说,事故确实具有至关重要的作用。在人工智能技术的进化中,事故起着突变的作用,可能会改变进化的进程。事故使我们发现现有的问题,尝试解决这些问题,并开发新一代人工智能。这是最有价值的人类学习方式之一,而且,看起来,对于机器学习也是如此。这个过程引出了一个不可避免的问题:“如果出现问题怎么办?”自动驾驶汽车的进化正是一个重要的例子。
2016年,在佛罗里达州的一条州级公路上,一名使用自动驾驶系统(Autopilot)驾驶特斯拉汽车的男子,因他的汽车撞上一辆横穿马路的拖车,当场死亡。事后,美国联邦监管机构裁定,该系统并不存在造成事故的缺陷。
后来,在2018年之前几年,亚利桑那州官员成功地抓住了优步和其他公司开始测试自动驾驶汽车的机会。他们承诺采取轻度监督,邀请这些公司在本州的道路上测试它们的机器人车辆。然后,在2018年3月18日晚上,优步运营的一辆自动驾驶汽车在亚利桑那州坦佩市的一条街道上撞死了一名妇女,当时车上有一名紧急后备司机。这被认为是首例因自动驾驶技术而导致行人死亡的事件。该公司迅速中止了测试。现在,这起事故影响着自动驾驶汽车的进化。
这起事故提醒我们,自动驾驶技术仍处于试验阶段,政府仍在试图弄清楚如何对其进行监管。优步、韦莫(Waymo)和一系列诸多科技公司和汽车制造商已经开始在全国各个城市测试它们的自动驾驶汽车。这些公司表示,自动驾驶汽车将比普通汽车更加安全,只因为自动驾驶汽车将很容易取代注意力不集中的驾驶员。但是,这项技术仍然只有短短的10年历史,而且才刚刚开始体验人类司机们可能面临的各种不可预测的情况。
目前还不清楚,亚利桑那州的撞车事故是否会使得其他公司或州监管机构降低自动驾驶汽车在公共道路上的行驶速度。自动驾驶汽车的大部分测试是在碎片化的监管环境中进行的。一些州(比如,亚利桑那州)采取了宽松的监管态度。亚利桑那州官员希望将经营自动驾驶技术的公司邻近的加利福尼亚州(该州监管者态度较为谨慎)吸引过去。
自动驾驶技术的研究人员一直在努力想要教会系统如何适应不可预测的人类驾驶行为。尽管如此,大多数研究人员相信自动驾驶汽车最终会比人类驾驶员更加安全。根据美国国家公路交通安全管理局的数据,2016年,美国有37461人死于交通事故。这相当于,2016年,每行驶1亿英里,死亡1.18人。
因此,由于发生事故,研发人员不得不重新考虑自动驾驶汽车的发展进程。这起事故可能会改变预定的进程,以及人工智能技术的进化过程。因此,当我们从特定的事故中吸取教训时,事故本身就是进化过程中的突变,直到发生下一次事故。
但是,如果这不是事故呢?我们如何能够确信,我们将永远有能力改变进化的进程?其实,我们真的曾经有过这样的能力吗?
五、思考的未来:超级智能与后生物学
史前时代我们已经创造出很多工具,来帮助我们努力工作。在石器时代,我们用石头制作工具。我们用石头敲碎坚果,而不再用手。我们用锋利的石头划开动物的皮肤,而不再用手或牙齿。当火被发现时,石头也被用来点火。当我们发现铁的秘密时,我们用铁制作工具。大多数考古发现基本上都是工具。
后来,我们发明机器为我们工作。因此,我们先是发明了自行车,后来又发明了火车、汽车、飞机和宇宙飞船,而不再从一处步行到另一处。但是,这些并不是我们最激动人心的发明。
在人类历史的某个时刻,我们觉得,思考太难了。思考让我们不同于动物,但却被认为是一种负担。看看西方儿童在学校里有多么无聊,有时甚至是有多么痛苦。他们最想要的机器就是一台可以替他们做作业的机器。
在人类历史的某个阶段,我们想发明机器来为我们思考。而且,我们做到了。在17世纪,我们发明了第一台计算器。它被设计用来计算简单的加法和乘法,但基本上,这些都是简单的思考。有供则有求。计算器变得越来越先进,并取代了越来越复杂的思考。机械化思考变得比人类思考更加可靠。我们大多数人更加相信计算器算出的3的平方根,而不相信我们自己计算的结果。
随着欲求越来越强烈,我们发明了人工智能。我们希望这些机器能为我们思考。当人类驾驶员在雨天开车时,会进行很多复杂的思考:怎么转弯?以什么速度?正确的角度是多少?等等。但是,自动驾驶汽车能为我们做这些思考。我们可以坐在汽车后座,玩弄我们的智能手机(另一台思考机器),尽情享受人类思考的堕落。无知则无忧。这是人类思考的未来吗?
下一步是超级智能或人工超级智能(ASI)。ASI是一台机器,它拥有远远超过最聪明、最有天赋的人类大脑的智能。计算机组件的速度已经大大超越人类的表现。生物神经元以大约200Hz的峰值速度工作,比现代微处理器(大约2 GHz)慢整整7个数量级。此外,神经元通过轴突以最高120米/秒的速度传输尖峰信号,而现有的电子核心处理器能以光速进行光学通信。
因此,超级智能的最简单例子可能是一个仿真的人类大脑,但它运行在比人类大脑快得多的硬件之上。这是一个像人类一样的推理机器,它的思考速度比现在的人类思考速度快几百万倍。在大多数推理任务中,尤其是那些需要快速行动或长期行动的任务中,它会拥有绝对优势。
计算机的另一个优点是模块化,换言之,它们的尺寸或计算能力可以增加。一个非人类(或被改造的人类)的大脑可能会变得比今天的人类大脑体积更大,就像许多超级计算机那样。另外,还有集体超级智能的可能性:足够多的独立推理系统,如果它们足够好地沟通和协调,能以比任何次级代理(即单个推理系统)更强的能力共同行动。
另外,也可能有办法从本质上改进人类的推理能力和决策能力。人工超级智能可能会更先进,因为量子处理器可以自主运行。这种处理器完全不同于基于晶体管和电容器的二进制数字的电子处理器。普通的数字计算要求将数据编码成二进制数字(比特),每个数字总是处于两个确定状态(0或1)中的一个,而量子计算使用量子比特(qubits),它们可以处于叠加的状态。
所有这些优势都适用于人工超级智能,但还不清楚有多少优势可适用于生物超级智能。生理局限在许多方面限制了生物大脑的速度和尺寸,而这并不适用于机器智能。
另一步就是后生物学。我们已经使用人工智能芯片将神经系统与大脑或脊髓相连,从而帮助残障人士移动手臂和腿。但是,将该类型芯片植入人脑,刺激大脑,加速人类思考,还处于实验阶段。但是,届时,我们可能会想,这样产生的想法是人类的思考还是机器的思考?有什么东西会阻止我们在这些芯片中植入一些内容,来指导我们思考吗?当这些芯片被激活时,创造力还存在吗?当然,还有许多其他问题。人类思考的未来似乎不是很清晰。