问题的真正解决思路,似乎不在于如何从外部的立场出发,去给人工智能系统“立法”。更值得推荐的思路,或许是让智能系统成为真正的伦理主体——或者说,让伦理性内植于机器自身的程序之中,概而言之就是,将人工智能研究升级为人工伦理研究。
从霍金的警告到罗素的倡议
此前,天体物理学家霍金向世人发出警告,说超级人工智能已经对我们人类的生存构成了威胁。此言一出,引发各地媒体纷纷转载。不得不承认,笔者最早听闻这一报道之时,多少觉得有点不以为然。其一,霍金虽是科学界旷世奇才,但其对于人工智能的评论却属于明显的“跨界”言行,其“博眼球”的成分或许已压过了此类评论所应有的专业色彩。其二,人工智能技术当下的发展虽说的确很快,但其是否已经达到了逼近人类智能的地步,却还很难说。严格地说,最近的人工智能技术的进步,主要得益于硬件性能方面的日新月异。譬如,配上了更好的传感器以及更烧钱的数据处理系统的自动驾驶系统,的确可以使自己显得更为“灵敏”;拥有更大的数据库的专家系统,亦可以由此使得自己显得更为“博学”(如几乎无事不知的IBM公司的“华生”系统),等等。然而,在基本的算法层面,最近十年来人工智能界是否取得了某种堪比上世纪80年代“人工神经元网络技术”之兴起的重大科学突破,则颇为可疑(更何况即使是这一“突破”所具有的科学意义到底有多大,学界的意见也是见仁见智)。在此背景下,过分炒作人工智能研究所带来的伦理学风险,是不是有点杞人忧天呢?
然而,最近计算机业界所发布的一封公开信,则提醒笔者注意到了人工智能研究中牵涉的伦理学问题所具有的复杂性。这份公开信的标题是“关于靠谱的和有益的人工智能研究所应具有的优先性”,发起人是美国加州大学伯克利分校的资深人工智能专家斯图亚特•罗素。应当看到,此信并未像霍金的警告那样充满了对于人类未来的一边倒的悲观色彩,而是充分肯定了人工智能研究对于提高人类生活质量所具有的巨大潜力。但是,公开信也提醒读者注意此类研究所具有的“双刃剑”效应,并积极呼吁伦理学家和人工智能专家合作,兴利除弊,将人工智能的发展所可能带来的负面效应缩至最小。这也就构成了笔者构思这篇小文的由头。
人工智能研究的四条伦理学规范
前面笔者已经提及,现有的人工智能系统的“智能”其实都带有隐喻色彩(甚至是商业炒作色彩),因此,很多被冠以“人工智能”的研究其实都是对于一般的计算机软件编程工作的“借壳上市”而已。但是罗素等人的公开信则提醒笔者注意到,即使是这个层面上的人工智能研究,也已经对人类现有的伦理和法律体系构成了不同程度的冲击。譬如,即使是目前不那么智能的智能系统的大规模商业应用,也必然会为劳动密集型企业之生存带来灾难性的威胁(这一点对于第三世界国家而言尤为严重)。这样一来,被机器取代的劳动力的就业出路在哪里?此类人工智能产品的运用,会不会进一步加大人类业已存在的严重的财富分配不公的问题,并从而导致更为严重的社会与政治问题?又比如,大量的计算机统计技术在金融、保险、股市等领域内的运用,会不会导致“未来”变得过于“透明”,而使得相关行业的获利空间不断被压缩以至于趋近于零?又比如,用人工智能技术武装起来的自动驾驶系统一旦出现事故(在这里我们必须预设任何人造系统都会有大于零的事故率),到底由谁来负责,是机器的产权拥有者,还是生产商?而此类机器的生产商又应当承担多少先天的伦理责任,以尽量降低系统产生对人类有害效应的概率呢?请别忘记了,生产商承担的此类责任越多,产品的售价就会越高,而人工智能产品就越有可能被富足阶层所独占——而这种独占本身又会产生另一类伦理学问题。再比如,我们该如何恰当地评估人工智能技术的军事运用所必然带来的伦理、法律与政治后效呢?一方面,我们似乎有很明确的伦理理由去将现有武器“人工智能化”——因为这样的技术升级显然能够使得军事打击变得更为精准,己方伤亡更少,并由此使得战争更为人道;但另一方面,人工智能带给武器的“自主性”对于现有的层级分明的军事指挥体制却是一个巨大的挑战,譬如:人类指挥官如何能够保证其机器人下属不会按照自己的理解去误解其军事指令?甚至我们还可以设想:如若敌对双方的军队都装备了大量具有此类基本自主性智能的军事装备的话,发生人类指挥员所不可预测的偶然性军事冲突的几率是不是反而会被提升呢?
面对这些错综复杂的伦理学问题,罗素等人的建议是在人工智能的研究中树立四条规范性标准,以使得技术的运用不至于出现失控的状况。这四条标准分别是:“可验证性标准”,即保证设计出来的系统的确能够执行人类希望其执行的任务;“有效性标准”,即保证设计出来的系统肯定不会带来人类所不期望看到的那些危害;“安全性标准”,即保证设计出来的系统肯定不会被不具资质的个人或者团体以不恰当的方式加以利用;“可控制性标准”,即保证设计出来的系统在其不幸出错的时候,能够顺利地向人类移交对于自身的操控权。
罗素等人提出的这几条标准本身看上去虽都貌似有理,但就他们提出的用以贯彻这些标准的具体技术解决方案而言,却似乎依然带有“头痛医头、脚痛医脚”之弊。概而言之,他们的技术方案,便是设计出一套套更为高阶的元算法,以便保证被设计的系统的“可验证性”或“有效性”,等等——这大约可类比于设计出一个个点钞机,以便去检验手动点钞结果的准确性。但问题是:不同的人工智能系统背后的算法基础乃是彼此不同的,因此,你用来检验一个系统的可验证性的元算法,就必然无法与另外一个验证系统相通融——而这又大约可类比于专门用来点验人民币的点钞机,是无法被用来点验欧元的。更麻烦的是,这些标准的具体内容必然会因为语境的不同而彼此差异,因此,对于这些标准的内容的预先规定与编程就会遭遇到一些原则性的困难(不管怎么说,恐怕没有任何一条内容有限的规则可以预见到系统所可能遭遇到的所有语境)。比如,就所谓的“有效性标准”而言,要在智能系统所可能作出的所有动作中,预先排除掉哪些动作是“人类用户所不期望看到的”,又谈何容易。举个例子来说,在一个问题求解语境中,吸尘机器人去清洗自身(而不是地板上)的灰尘或许是人类用户所不希望看到的,但是在另外的一个语境中,有些人类用户却希望其这么做。反过来说,如果有人硬是要将这些所有可能的语境都考虑在内并设计出一套超级检查程序的话,那么,对于检查程序本身的运行就很可能会占据大量的运算资源,并最终导致系统的崩溃。
在笔者看来,问题的真正解决思路,似乎不在于如何从外部的立场出发,去给人工智能系统“立法”。更值得推荐的思路,或许是让智能系统成为真正的伦理主体——或者说,让伦理性内植于机器自身的程序之中。若用一句话来概括笔者的思路的话,这就是:“将人工智能研究升级为人工伦理研究”。
“机器人三定律”与作为伦理主体的人工智能系统
为何一定要将对于“人工智能”的研究升级为对于“人工伦理”的研究呢?我们不妨暂时抛开对于人工系统的讨论,而来看一下我们人类自己的“伦理可靠性”。假设你是一家公司的领导或者是一支武装部队的首长,你又如何能够保证下属对于你的忠诚呢?一个比较笨的办法就是制定各种行为标准,严惩不忠者,奖励优秀下属。然而,任何完善的规章制度本身肯定都是有漏洞的(因为任何抽象的规章制度都不会具有彻底的“语境敏感性”),因此,你还得让你的下属从内心生长出对于上级或者团体的忠诚。不难想见,自发的忠诚感与恰当的智能的相互匹配,可以达到某种非常完美的效果,比如,在某主体面对一个新的问题情境时,他既能够根据自己的智能,富有创造性地给出最佳的问题求解策略,又可以根据他的忠心来保证这种求解的效果最终是有利于其所为之服务的社会团体的。反过来说,伦理意识一旦缺失,即使法制体系以及管理规章非常严密,行事者也可以利用其智能从中找到漏洞,并由此让法规异化为为自身牟利的工具。从哲学史的角度看,儒家之所以推崇德治,而对法家所鼓吹的法治的充分有效性有所怀疑,恐怕也是出于同样的理由。
那么,我们又该如何让人工智能系统具有对于人类用户的内在忠诚性呢?根据科幻作家阿西莫夫在其1942年首发的小说《我,机器人》中提出的建议,我们似乎可以讲所谓的“机器人三定律”内植于人工智能系统之中。这三条定律是:
定律一:一个机器人不能伤害人类,也不能够在人类面临受伤害风险时袖手旁观;
定律二:一个机器人必须服从人类的命令,除非这种服从会导致机器人违背定律一;
定律三:一个机器人必须尽力自我保护,除非这种自我保护会导致它违背前两条定律。
这三条定律的意思看似浅显,但若真要将其写成程序,却会立即遭遇到一些哲学层面上的困惑。具体而言,相关的麻烦是由前两条定律中提到的关键词“人类”引起的。不难看出,作为集合名词的“人类”是有歧义的,它既可以指“任何一个人”或“所有人”,也可以指“大多数人”。若取前一种理解,我们就会发现,阿西莫夫的“机器人三定律”,或许可以被视为德国哲学家康德所说的“绝对命令”在机器人时代的翻版。我们知道,按照康德的伦理学,一条绝对命令就是一个没有条件限制的应然性祈使句。在康德道德哲学的语境中,此类需要无条件被执行的祈使句也有三条(按效力大小排序):
第一,所有的道德断言都应当对一切主体和一切语境有效(普遍性标准);
第二,对一切主体和一切语境来说,都应当把其他的任何人当成目的,而非手段(目的性标准);
第三,所有的道德主体在类似的语境中都应当能够根据纯粹实践理性得到相同的“应然性”判断(普遍目的性标准)。
现在我们就不妨来更为仔细地比照一下阿西莫夫的三定律和康德所说的“绝对命令”。若将阿西莫夫的“机器人定律一”中所提到的“人类”理解为“所有人”或“任何人”,该定律显然满足康德所说的“普遍性标准”,因为“定律一”的表述亦是没有条件限制的——换言之,“既不能伤害人类,也不能在人类面临受伤害风险时袖手旁观”这一条是对一切机器人、一切人类个体和一切语境起效的。后两条定律若和此条发生冲突,也必须牺牲自己而服从于它。另外,“定律一”也暗含把人“当成目的”的想法,否则就谈不上“在人类面临受伤害风险时不能袖手旁观”了。
读者或许会质疑说,根据这种对于机器人定律的康德式解读,我们又如何保证机器入能够被运用于一些特殊领域(比如军事或者治安领域)呢?譬如,一个警用武装机器人是否可以对正在挟持人质的恐怖分子开枪呢(别忘记了,恐怖分子也是人,因此也必然会被康德主义者解读为“目的本身”)?又比如,一辆自动驾驶的汽车,又如何能够在面对两难的情况下(譬如那种无论怎么驾车都会撞到行人的情况),根据“伤害最小化”的原则实施“紧急避险”呢(因为即使是“最小化了的”伤害,毕竟也是对于人类的伤害)?由此设计出来的智能系统,会不会最终变成为优柔寡断的“机器人版哈姆雷特”,而无法在面对环境变化时及时给出恰当的回应呢?
而为了解决这个问题,最容易想到的办法是将机器人三定律中的“人类”直接界定为该系统的直接用户。但即使是这个办法也并不治本。首先,在很多场景中,系统所面对的人类对象并不是其直接用户,但是其决定却关系到了他们的生死(如上面提到的防暴机器人的例子)。其次,在系统的直接用户本身的伦理品性难以被保证的情况下,系统很有可能会沦为助纣为虐的工具——在这样的情况下,我们更希望出厂的机器人自身所内装的“伦理模块”会使得别有用心的坏人在恶意使用它们的时候会遭遇到种种技术反抗。因此,我们似乎还需要一种更富灵活性的“人类”定义,以使得智能系统能够在“所有人”和“我的主人”之间找到一个平衡点。这就是前面提及的“大多数人”。
如果说将机器人三定律中的“人类”读解为“所有人”是康德式的义务论式观点的一种典型体现的话,那么边沁或者穆勒式的功利论者就自然会将“人类”解读为“大多数人”。我们知道,英国哲学家边沁的最基本伦理学教条便是:“判断对错的标准,就在于最大多数人的最大程度的快乐。”按照这个标准,机器人自然便会根据利弊之间的对比,来决定自己是否要选择伤害一部分人的利益以维护更多的人的利益。如果我们再用概率论的术语来对边沁的基本原理加以重述的话,那么它还可以被表述为:“判断对错的标准,就在于相关的行为是否能够以最大的几率为最大多数人带来最大程度的快乐。”而根据这条原则加以行事的人工智能系统,显然便能够根据相关行为选择的历史成功率来判断其应该在当下给出哪种选择,并以此将自己的行为的精准度微调至非常细密的程度。
然而,即使是这样一个看似严密的方案,其实也是有着重大缺陷的。首先,“利”和“弊”之间的差异有时候的确很难被量化。比如,牺牲999条生命,是否对于拯救1000条生命来说是不得不付出的代价呢?这个对于任何有基本良知的人来说都难以回答的问题,若被一个机器人仅仅以“1000大于999”这样一个琐碎的算术理由而被当即给予了肯定的解答的话,是不是会显得有点过于草率呢?其次,对于成功率的数据的依赖,是不是就一定能够有效地指导未来呢?譬如,仅仅因为某个选项的历史成功率不高而拒绝考虑之,是不是一种作茧自缚、故步自封、缺乏创新的保守思维的体现呢?再次,并不是所有的可能的道德选项都可以找到历史上的成功率数据,而在此类“计算根据缺乏”的情况下,系统又该何去何从呢?
笔者认为,一种更为稳妥的解决之道,是要在康德主义与边沁主义之间再作出一种平衡,以使得系统能够兼顾两种伦理学体系的好处而尽量避免其劣处。具体而言,系统不妨按照下述程序去处理特定的道德选择情景:
第一,在任何情况下,系统将首先尝试着按照康德式的悲天悯人观点,对所有人的利益加以考量,尽量不去伤害任何人的核心利益(特别是生命权)。
第二,在完成“一”有困难的前提下,系统将按照边沁式的观点,根据最多人的最大利益,或者是根据对于满足此类利益的选项成功几率的计算,而给出资源有限前提下的最优解。
有的读者或许会说,对于“所有人的利益的考量与照顾”只有在极端理想的情形下才能够被加以执行,因此,对于大多数问题处理语境而言,上面所列出的“步骤一”是毫无实际意义的。然而,只要我们将“所有人”的范围缩减至特定的问题处理语境所牵涉到的所有相关当事人,那么,对于这些人的利益的考量所占据的运算资源依然会处在系统的可支付范围之内。此外,也是更重要的是,对于“步骤一”的保留,将使得系统有机会搜索更多的问题求解方式以保障所有人的利益,以免过于匆忙、粗暴的利弊对比遮蔽了某种“保护所有人利益”的选项浮现的可能性。譬如,预装了“步骤一”的防暴机器人就能够在面临人质绑架危机的时刻去搜索那些在保护人质安全之同时,亦保护犯罪嫌疑人自身基本生存权的问题求解方案,而不是“不假思索”地转向冷酷的“击毙罪犯”模式。换言之,预装了“步骤一”的人工智能系统,将在行为表现上显得更有“人情味”,尽管这种表现会在某些语境中导致行为输出的迟缓化。
人文社科学者能够为人工伦理做些什么?
以上,笔者已经就如何通过康德的义务论和边沁的功利论这两方面的考量,在拟议中的人工伦理研究中夯实阿西莫夫关于“机器人三定律”的设想,提供了一些管见。在本文的末尾,笔者还想就广义上的人文社会科学和人工伦理研究之间的关系,发表一些粗浅的意见。
先来看哲学中的伦理学研究和人工伦理研究之间的关系。通常意义上的伦理学研究分为三大分支:所谓的“元伦理学”研究,其关心的是伦理规范自身的本体论地位与语义内涵;所谓的“规范伦理学”,其关心的是不同的伦理规范——如义务论或者功利论的规范——自身的可辩护性;所谓的“应用伦理学”,其关心的则是如何将不同的伦理规范应用于社会生活的不同领域。从表面上看,本文所提到的“人工伦理”研究牵涉的似乎仅仅是应用伦理学的研究,因为它看上去只不过就是对于既有的伦理学规范在人工智能这个新领域内的运用而已。然而,更为仔细的观察却会使得我们发现,人工智能这个行当自身所固有的实验性特征却又反过来为我们检验不同的伦理学理论的有效性提供了契机,因此,我们也完全也可以反客为主,将计算机的平台视为验证既定伦理学理论的工具,并因此使得人工伦理的研究本身带上鲜明的规范伦理学色彩。这种模糊计算机科学和伦理学研究之间界限的新视角,亦在某种宽泛的意义上和目前正方兴未艾的“实验哲学”思潮相呼应,并在相当的程度上对国人所熟悉的以经典诠释为核心的传统哲学研究方式构成强大的冲击。
而在诸种社会科学研究中,与人工伦理最为相关的学科无疑乃是心理学(特别是道德心理学)以及法学。先来说道德心理学。道德心理学的核心命意,乃在于对于人类道德判断背后的心理机制作出经验层面上的描述。可以想见,对于天然具有义务论倾向以及天然具有功利论倾向的不同道德主体所具有的不同心理机制而言,如果心理学家都能够对其作出足够充分的说明的话,那么,相关的研究成果若被加以恰当的抽象化与算法化,就完全可以被人工智能专家所利用,最终设计出具有不同道德倾向的人工伦理主体。
另一个不可或缺的社会科学领域则是法学。前文已提及,进入人类生活各个领域内的智能机器人,将不可避免地牵涉到各种司法关系,比如交通法规、公民的隐私权保护、物权,等等。进入军事领域内的智能机器人则会进一步牵涉到军事保密、交战规则与国际法等诸方面的更为复杂的司法关系。在这种情况下,为了能够让智能机器人适应人类社会既有的司法体系,法律界人士就必须与人工智能专家通力合作,寻找将既有司法规范“算法化”、“程序化”之道;而在另一方面,大量智能机器人的出现又不可能不对人类既有的司法体系构成冲击,而这就又会倒逼着司法领域内的专家就相关领域内的旧法修订乃至新法编纂工作,提出一些能够同时为执法部分、计算机工业界以及广大用户所接受的建议。
——然而,我们当下的人文社会科学的教学以及科研体系,是否已经为迎接这样的“智能机器人时代”的洗礼做好了准备呢?
答案恐怕是不容乐观的。以笔者相对熟悉的哲学领域内的教学与研究情况而言,学界大量的精力还是被放诸对于中西哲学经典的解释与阐发之上,对于“工业4.0时代”提出的最新鲜的时代命题尚缺乏普遍的触动感。而就与人工伦理更为密切的伦理学研究而言,其在中国哲学界内部的学术地位可谓不可思议的边缘化,而这又与某些伦理学分支——特别是应用伦理学——在北美国家的高度繁荣构成了非常刺眼的反差。至于心理学研究(特别是认知心理学研究),虽然近年来在我国的确取得了长足的进步,但是与其他人文社会科学之间的学科交叉和相互融合还非常不足,难以通过自身的发展构成撬动整个社会科学分布板块既有模式的“鲶鱼效应”。相比较而言,法学在我国的发展相对而言获得了较多的社会关注以及学科资源——但即使如此,根据笔者有限的见闻,在汉语学术圈中关于智能机器人的出现所可能出现的法学问题的预研,似乎还付诸阙如。
当然,从更富同情心的视角来看,目前中国人文社会学界对于此类问题的沉默,也是有着相应的客观历史原因的。一方面,人工伦理研究所需要的跨学科视野以及知识背景,需要有整个鼓励文理交汇的文化背景做支撑,但是这样的文化背景在我国还有待进一步培育。另一方面,由于我国目前所处的特殊发展阶段,诸如食物、水、空气等人类基本生存资源的安全问题依然占据了大量公共舆论空间,在这样的历史语境中再来讨论机器人的伦理问题,恐怕会被一些人认为是在“操闲心”。不过,我们同时需要冷静地看到,智能机器人时代自身的到来,不会因为某个国家的知识界正忙于他务而自动放慢自己的脚步——它什么时候到来,并以怎样的方式到来,会仅仅遵循其自身的逻辑。考虑到我国人口老龄化的现实以及我国现有的世界制造大国的地位,很难设想一旦人工智能技术发生突破性进展之后,我国的制造业竟然不会去迎头追赶。而对于这项迫在眉睫的科技大事件的发生,我们的人文社科界若没有做好相应的思想与理论准备,恐怕将难以应对此类技术的社会应用所必然产生的复杂的伦理以及司法后效。从这个角度看,尽管像霍金那样谈论人工智能体如何灭亡人类的确有点过于“科幻”,但是对于人工伦理的讨论却一点也不超前。相反,这样的讨论正当其时。
注:徐英瑾,复旦大学哲学学院教授、博士生导师。
【声明】以上内容只代表原作者个人观点,不代表artda.cn艺术档案网的立场和价值判断。