用户∶  密码∶    · 新用户注册 · 取回密码
您现在的位置: 首页>>西方哲学>>其他>>正文

人工智能与伦理挑战

时间:2018-04-23 14:38:14 点击:

Artificial Intelligence and its Challenge to Ethics

  Lan Jiang

作者简介

蓝江,南京大学哲学系教授,研究方向:当代欧洲马克思主义。

内容提要

是否应该赋予人工智能和机器人与人类同等的道德主体的地位,成为当代伦理学一个无法回避的问题。“电子人格”是否可以进入到与人类主体进行平等协商和对话的公共理性当中,以及我们是否将进入到一个人与智能主体共存的社会,仍然是一个悬而未决的问题。文章从人工智能的波兰尼悖论出发,以胡唐·阿西拉芳给出的机器人大战为案例,认为在伦理学上,人工智能和机器人只能符合规范伦理学的要求,而无法处理开放性情境中的实践伦理问题。这样,至少在今天,人工智能还无法成为与人类对等的伦理主体,而对于这个问题的讨论,会随着人工智能的发展继续深入下去。

关键词

人工智能;伦理挑战;波兰尼悖论;电子人格;人工智能主体

  当AlphaGo在击败了韩国顶尖棋手李世石以及让中国围棋第一人柯洁投子认输之后,人们突然感觉到人工智能以一种特别的形象乍现在我们面前。然而人工智能的这种出场仅仅代表着人工智能领域的一个很小的部分,但恰恰是这个部分,让不少人感到忧心忡忡,因为他们似乎感觉到在不远的未来,现在的人类将会被人工智能所拥有的能力取而代之。独属于人类的世纪终将被后人类(即人类与人工智能并存,且人工智能拥有更强大权力)的黎明所替代,这样,人们对人工智能的关注,不仅仅是其技术的发展,更重要的是,具有更强大智能和力量的人工智能,是否对人类具有善意,人与人工智能之间的关系是竞争、敌对,还是协作、共存?这就是人工智能为我们带来的伦理问题和伦理挑战。

 

 一、人与机器之槛:人工智能的“电子人格”

  2017年3月,欧洲议会法律事务委员会曾发布了一个关于机器人和人工智能的报告,在这个报告中,提出了一个令人震惊,但又看起来在情理之中的观点,即报告认为应该发展出一种适用于机器人和超级人工智能的“电子人格”(electronic personhood)模式,从而可以保障未来或许会出现的类人机器人(near-human robots)以及人工智能的权益和责任。换言之,“电子人格”的赋予,代表着商谈伦理学的一个特殊的拓展,也就是说,进入到民主协商和商谈伦理的诸方,不一定限于具有具体人格的人类,也允许一些具有平等地位的“电子人格”的主体与人类对话和协商,它们作为一种“人格”亦承担着现代自由主义民主制下的平等主体的身份。或许以人工智能和机器人为背景的科幻小说和科幻电影在其中起到了推波助澜的作用。

如2016年在HBO热映的电视剧集《西部世界》(Westworld)就描述了这样一个人类与智能机器人共处的空间——由机器人扮演各种西部世界角色的游乐园,当然,在这个游乐园的空间中,由于起初由人类掌控(包括资本的掌控和技术的掌控),其目的也是为人类游客服务,从而在规则的制定以及故事情节和程序的设定上,都是以人类为绝对优先的,机器人服务员被置于绝对仆从地位。一位在人类社会非常循规蹈矩的绅士,在游乐园里展现出无比暴虐的本性,他恣意残害虐杀乐园里的类人机器人;而那些平常规规矩矩,被现代社会所规训的现代个体,由于乐园规则对机器人行为的限制(对现实的游客唯一的限制就是不能去虐杀或伤害他们的同类,对于机器人则不在此列),使得他们可以随意在其间释放兽欲和残暴的本性。游乐园的管理方随时监控着所有机器人服务员的行为表现是否合乎正常的程序,即便机器人接待员遭到了来自于现实中的人类最惨无人道的对待,那些工作人员也只是十分冷漠地将机器人的残肢断体拾回,运送到实验室里重新组装,再一次投入到运营中。然而,这一切因为智能机器人的“冥思”(meditation)程序而发生了变化。有趣的是,这个词虽然在电视剧里被翻译为“冥思”,但实际上这个词也正是启蒙哲学家笛卡尔在《第一哲学沉思录》中所使用的人类意识到自我存在的沉思,meditation在笛卡尔那里意味着启蒙,而《西部世界》主创者在使用这个词的时候,认为乐园总监罗伯特·福特在使用这个程序的时候,也意味着人工智能的启蒙,意味着一旦冥思,智能机器人便会具有与人类同等的自我意识,从而从实际上具有与自然人格同等地位的人格:冥思即启蒙。这样,乐园中以自然人类为中心的规则,在第一季结束的时候,遭到了来自于启蒙觉醒的智能机器人的挑战,他们的冥思式启蒙,使其不再接受与人类的不平等关系。我们可以预测到,在第一季中自然人格与相对于智能机器人的绝对支配的优势地位,会在之后的剧情中被颠覆,这种“冥思”意味着电视剧的创作者在艺术上已经赋予智能机器人与自然人类的平等交往地位。而后面的剧情或许是,在反抗的机器人和人类管理员之间的多次较量,甚至血腥屠戮之后,机器人作为一种对等的人格会与人类平等对话,而西部世界这个乐园,会成为一个后人类的共同体,一个新的利维坦就此诞生。

  这样,哈贝马斯意义上的主体间的交往理性,在现代人工智能背景下,已经被拓展为一种“超人”或“后人”与人类之间,或诸多人工智能“电子人格”之间的交往理性。在这种背景下,我们似乎无法再恪守一种纯粹以人类为中心的伦理学,“走出人类纪”,建立一种“后人类”主体的伦理学便是势在必行的事情,那么,我们如何从哲学或伦理学上来审视这个问题?

  一种最为简单的做法是,将人类与人工智能形成的“电子人格”作一个类比的转换,即人类与人工智能的关系类似于人与动物的关系。实际上,在今天的社会中,有不少呼声认为动物(尤其是猫和狗之类的宠物),可能拥有着与人类一样的人格,这些动物不仅与人类生活在一起,而且也承担着人类社会的社会责任,最明显的例子是导盲犬、缉毒犬、防爆犬之类的动物,它们承担着人类所不能完成的任务,并成为人类社会不可或缺的部分。一些动物伦理学家,提出了人道地对待动物,使动物拥有与人一样的地位的问题。同样,类人机器人或人工智能一旦被赋予平等的“电子人格”,就像在科幻电影中一样,它们承担着一定的社会责任,并需要得到人道的对待。然而,正如伊万·达舍夫斯基(Evan Dashevsky)所说:“人类与技术对象的关系以及我们的选择最终都是对我们自己的反射……这就像康德的哲学主张,康德所主张的动物权利是关于我们的权利,而不是关于动物的权利。康德对动物权利根本没有说过任何东西。他只是说,如果我们对动物很残忍,那么我们也会对人很残忍。我想这种应用设定具有生命性质,我们像对待活的生物一样的机器人身上也是如此。” 那么,按照达舍夫斯基的观点,无论我们审视动物的权利,还是审视人工智能和机器人的人格,仍然是一种人类中心的视角,一种基于对人自身的反射式关怀。

  人工智能的形式,我们当然不能只从动物的角度做简单的类比。更多从事信息技术和人工智能开发的工程师,拒绝从这个角度来思考问题。实际上,对于人工智能,人们往往只对那些带有类人的实体外形的机器人或者某种对象化的人工智能赋予人格,而对于专业工程师而言,这个领域或许要广泛得多。当我们将“电子人格”赋予类人机器人和人工智能时,我们是否也要将同样的人格赋予我们的智能手机、汽车的自动驾驶系统,甚至我们大门上的智能锁?达舍夫斯基问道:“当我们删除自己智能手机上的数据和照片时,你是否感觉到手机的情感反应?” 而我们从不认为我们删除智能手机上的信息,是在侵犯一个与我们具有同等地位的“电子人格”的权利。

  我们抵达了当代意大利哲学家阿甘本命名的门槛(soglia)地带。正如人工智能工程师和科学家们为我们展现的那样,人与机器的区分,在今天似乎变得没有那么的清晰明朗。即一旦我们放开人工智能的“电子人格”的权利,意味着人与机器的边界变成了一个难分彼此的门槛。尽管我们并不一定回到拉·梅特利的《人是机器》中那种纯机械论式的论断,这就是阿甘本所谓的装置(dispositivo),并不是我们在使用机器人和人工智能,而是我们与人工智能的装置进入到一个晦暗不明的门槛(人与机器或装置的门槛)地带,“一些带有好意的关于技术话语的空洞在于,装置的问题不过是对装置的使用问题。持这种观点的人忽略了:如果存在着与所有装置相对应的主体化(或去主体化)过程,那么就不可能有主体使用装置的‘正确的方式’。而那些宣扬类似观点的人,不过使他们深陷于其中的媒体装置的产品罢了” 。

 

   二、人工智能的波兰尼悖论

  事实上,人工智能给伦理学带来的挑战不仅仅是主体问题,也涉及伦理责任问题。主体问题,涉及主体间性的模糊性,即人与人工智能之间是否构成平等对话的主体间关系;伦理责任带来的问题却更为实际,涉及一般人对人工智能与机器人的恐惧问题。

  在美剧《疑犯追踪》(Person of Interest)中,设定了一个拥有最强人工智能的“机器”(machine),它能够随意调用所有的监控和数据信息,进行一些推理和运算,能够判断什么人具有危险,并指引特工遏制相对应的罪行。但是,从第一季到第五季,这个剧集都在宣扬一种观念,作为该机器设计者之一的哈罗德·芬奇(Harold Finch)始终尝试着将人类的情感因素灌输到机器中,让机器懂得与人类交流,并能够体会细腻的人类情感,正是这种情感性体验[如芬奇给“机器”分享他与他的合作者因格兰(Ingram)之间关系,以及他的恋爱经历]让这个高智能的“机器”拥有了一种伦理责任。实际上,剧集还设定了一个与“机器”竞争的人工智能装置——撒玛利亚人(Samaritan),这个撒玛利亚人只有高智能,没有一丝人类的情感,更不会对人承担任何伦理责任。尽管撒玛利亚人作为程序设定上属于更高级的人工智能,无论在掌握的资源上和程序的算法上都胜于芬奇的“机器”,但是芬奇的“机器”宝宝在与芬奇等人的交流中习得了人类的情感,从而拥有了撒玛利亚人所无法预计的因素,从而留给芬奇和“机器”一线生机,也正是这一线生机,让“机器”最终战胜撒玛利亚人成为可能。

  尽管《疑犯追踪》中的“机器”和撒玛利亚人的故事带有虚构的色彩,但是“机器”宝宝的故事却涉及人工智能界一个重要的学说:波兰尼悖论(Polanyis Paradox)。1966年,科学哲学家迈克尔·波兰尼给出波兰尼悖论的版本,即“我们知道的可能比我们能说出来的更多……司机的技能不可能完全用驾校的驾驶汽车的理论来替代” 。实际上,波兰尼悖论并不是专门针对人工智能技术提出的,但是一直以来,波兰尼悖论被视为人工智能发展绕不过去的一个槛。怎么理解波兰尼悖论呢?即原来的人工智能,大多是建立在海量的数据信息的收集以及计算机超强的数据处理和计算能力基础上,1997年,俄罗斯国际象棋棋王卡斯帕罗夫与人工智能的计算机“深蓝”进行了一场史诗性的对战,在6场对弈中,卡斯帕罗夫最终输给了“深蓝”。不过,正如“深蓝”的研制者IBM公司指出,“深蓝”并不是真正意义上的人工智能,实际上,IBM给“深蓝”输入了百年以来所有国际象棋的特级大师的开局和残局下法,同时“深蓝”拥有着8块专门为这次对弈而设计的处理器,其计算速度达到了惊人的每秒钟2亿步,正是这种超快的计算,让“深蓝”在与卡斯帕罗夫的对弈中占据了绝对优势,因为根据所有的棋谱,“深蓝”已经以极快的速度将所有的可能性都计算了一遍,同时对所有的走法,根据历史棋谱的信息,给出了最优化的选择,并直接呈现在对弈中。换句话说,与其说卡斯帕罗夫是在与一个人工智能下棋,不如说是与既往的所有国际象棋特级大师的经验下棋,尤其卡斯帕罗夫的个人棋风明显,更适合于这种用快速数据计算的方式来战胜。

  那么,我们需要理解的是,在“深蓝”与卡斯帕罗夫的对弈中,是否构成了波兰尼悖论?首先IBM“深蓝”小组所输入的是既有的国际象棋信息,即一种固化的知识形态,而“深蓝”只是在高速计算和运转中,将这些信息以对弈的方式再现出来。也就是说,“深蓝”不能下出在历史上或在数据库中没有的步骤,它只能对特定的数据信息进行处理。相反,人类的大脑完全不是这样来运作的,人类可以创造出在棋谱中从未出现过的下法,而在6局对弈中,实际上卡斯帕罗夫胜了2局,而这两局的优势也正是在于卡斯帕罗夫创造了“深蓝”在以往棋谱中所无法计算出来的下法。 “深蓝”的案例实际上很好地诠释了波兰尼悖论,即人类大脑所能掌握的能力高于既定的被再现出来的知识,因为人类的思维存在着某种不确定的点,这个点意味着在某个地方,人类行为或许与安排好的程序不一致,这一点有点类似于《西部世界》中关于“冥思”程序的设定,也正是这个特殊的不确定,确定了人不可能纯粹是被决定的存在物,也意味着人有自己的自由意志。

  如果我们将波兰尼悖论的问题移植到人工智能的伦理问题上来,便可以理解《疑犯追踪》中芬奇的“机器”与撒玛利亚人之间的关系。伦理或道德不是程序问题,尽管在人工智能的发展上,已经有科学家提出了自己的想法,他们试图将伦理问题作为一种程序,写入人工智能的可能存在的“意识”当中,从一开始就规避掉人工智能可能带来的伦理风险。正如加拿大渥太华大学从事认知科学研究的学者丹尼尔·汤普森(Daniel Thompson)所说:“一旦成型,就很难控制了。因此,我们的安全预见需要我们去资助这样的计划,即确定第一代超级智能是友善的,从根本上击退所有邪恶的人工智能。” 然而,尽管汤普森的愿望是美好的,似乎优秀而善良的程序员和研究者可以通过预先设定好的程序,将道德准则的现实以规范的形式输入人工智能当中,但是这种做法真的能避免人工智能做出不符合伦理准则的行为吗?实际上,这个问题已经涉及伦理学当中的一个长期悬而未决的争论,即伦理究竟是一个形式化的规范问题,还是一种情境性的德性问题。这种以程序设计让人工智能接受人类伦理的方式,必然会遭遇到不同的道德情境问题。

   三、机器人大战:人工智能的伦理主体反思

  英国伦理学者胡唐·阿西拉芳(Hutan Ashrafian)曾设计了一个特殊的关于人工智能的案例:一场涉及边界争端的国际政治冲突导致了两个国家之间的战争,双方都在战争中使用了机器人和人工智能技术。在军事战斗快结束时,占有优势的一方有一个很好的机会来占领对方的一个战略要地,一旦占领这个地方,就可以获得胜利,并结束战争。在战争中,为了保障该战略区域的安全,占优势一方的前线机器人,按照先前预定的战斗计划成功地在战场上清除了敌方的机器人。然而,这些机器人遭遇到了一个突发情况,它们遭到了一群当地小孩的攻击。按照机器人和人工智能技术的法律法规,机器人绝对不能发动针对人类公民的攻击。 

  这显然是一个涉及机器人和人工智能的道德两难问题,我们分以下两种情况来讨论:

  第一,机器人不发动攻击。诚如汤普森所言,在人工智能的设计初期,我们可以将一些伦理规则作为绝对律令,用代码的方式写入人工智能的源程序之中。这个绝对律令就是,可以对对方任何战斗机器人实施摧毁,但绝对不能攻击对方任何自然人类,尤其是手无寸铁的妇孺、老人。在规范伦理学层面,这个律令是绝对没有问题的,相信战斗的两国在机器人设定上,都会遵照一定的规范来进行,避免无辜的平民和自然人伤害的发生。但是在阿西拉芳的例子中,当地的小孩攻击了智能机器人,如果按照既定的规范程序规定,机器人无论遭受何种攻击,都不能攻击当地小孩或敌对方的自然人,那么占有攻击优势的一方会发现,他们的智能机器人会遭到前所未有的挑战。在这种情况下,机器人成为自然人攻击的活靶子,攻击优势方的优势在自然人攻击面前会毁于一旦,如果敌方自然人和机器人联合发动反击,攻击方的机器人会被逐出这个战略要地,最终将唾手可得的胜利拱手让人,战争持续下去,两个国家继续耗时耗力投入到没有尽头的战争之中,最后两个国家在这场永远结束不了(无法结束的原因恰恰是机器人忠实地执行了伦理律令)的战争中耗竭殆尽。

  第二,机器人发动反击。任何占有优势的一方,都不会允许出于伦理程序而将已经到手的胜利拱手让人。于是,他们有可能在编写人工智能程序的时候,加上一个非伦理的附加条件,即如果智能机器人认定在遭受不明的致命攻击时,允许其在一定限度内反击。尽管在伦理法则上,强调了这种反击应在一定限度内,但是懂得战争伦理学的人都明白,在战场上,这是难以掌控的。也就是说,一旦允许机器人反击,很有可能对那些攻击机器人的当地小孩造成伤害甚至产生致命的危险。这种反击当然是条件性的和被动的,智能机器人不会主动屠戮当地居民和小孩,但是由于机器人的反击程序往往是针对敌方战斗性机器人的,它们的武器相对于自然人来说,可能会造成更大的伤害。另一方面,战斗机器人与遥控战斗武器不同,它拥有在战斗中的有限自主性,不纯粹受制于远程指挥,这样,战斗机器人的反击造成的伤害构成了一个伦理难题:战斗机器人是否应该为攻击当地小孩承担伦理责任?同样,我们分两种情况来讨论:(1)在机器人战争中,智能机器人作为独立主体来承担伦理责任。然而,在今天的伦理视阈中,人们无法简单将伦理责任问题仅仅归结于智能机器人的主体,至少现在我们将一个战斗机器人送上军事法庭是十分荒谬的。(2)如果我们不赋予战斗机器人完全的主体地位,相反,攻击小孩造成伤害的伦理责任由使用智能机器人一方的将军们负责(在伦理上认定,指挥和控制战斗的指挥官才是真正的伦理主体),但是这些将军们也感到十分无辜,因为他们并没有主动向机器人下达任何攻击小孩的命令,甚至在事件发生那一刻,他们对这种情况毫不知情,而事后他们又不得不为这种情况承担伦理责任。

  机器人大战的案例映现了波兰尼悖论在人工智能伦理学上所引出的问题。我们可以思考一下,如果不是战斗机器人,而是自然人军人,在这种案例或其他同样复杂的战场案例中,会拥有更多变化的因素。也就是说,战争上的伦理学对于军人而言,实际上存在着开放性的可能,比如说,针对对方的当地小孩,军人可以采用沟通的方式,并且这种沟通不是僵化的,而是针对不同的情况作出各种不同的反应。但这远远超出了我们现阶段的人工智能技术的应用范围。

  实际上,人工智能所产生的这些伦理学问题已经是伦理学之中的一些经典争论。主张向人工智能和机器人植入规范性伦理程序,实际上就是坚持康德式道德律令的一种代表,将某些伦理价值作为绝对先验的道德律令,而其他的道德程序需要通过从这些作为公理性的道德律令中推演出来。而这是一个现代启蒙意义上的道德理性或推理过程,同样,在今天人工智能的设定中,一些工程师和科学家认为,如果道德律令是可以推演的,那么我们就可以完全让机器人或人工智能具有与人类一样的伦理规范和实践理性。但是,另一种伦理学坚持认定应从具体的情境和实践来思考伦理学问题,也就是说,人们在具体生活中所遇到的伦理行为,实际上要远远多于被明确提出的道德律令。规范伦理学实际上不能穷尽一切伦理状态,正如美国伦理学家伯纳德·威廉斯在批判这种单纯的义务论或规范论伦理学时指出:“道德误解了义务,看不到为什么义务只构成伦理考虑的一种形态。它误解了实践必然性,认为它是伦理领域所特有的。它误解了伦理实践必然性,认为它单属于义务。”

   

   结 论

  威廉斯的批判也可以用在对人工智能伦理学的解读上,即我们可以回答在文章之初所提出的那个问题:人工智能现在是否可以拥有与自然人同等的伦理权利和地位?就现在看,答案是否定的,因为,人工智能的机器人,由于波兰尼悖论的限制,它们还无法真正达到实践伦理学的完备层次,尽管从规范伦理学上来说,可以将伦理规范和道德律令植入到人工智能之中,但是这种植入会遭遇到例外状态下的波兰尼悖论,这势必意味着,至少在伦理学上,我们将人工智能和机器人视为与人类对等的道德主体仍然存在巨大问题。赋予人工智能和机器人独立的人格主体,这是伦理学在今天必须长期讨论的问题。前文所讲《西部世界》的“冥思”的启蒙,和哈罗德·芬奇对“机器”宝宝在情感伦理上的谆谆教诲的情节,现阶段只能存在于虚构的科幻影视作品当中,如何悬置人类中心的伦理学成见,真正将人工智能与人的关系的伦理学纳入到考量当中,重新建立人与人工智能共存的伦理学,将会是一个极其漫长且十分艰巨的任务。

  这样,伦理问题不再是纯粹的人与人之间的问题,在新时代的背景下,伦理问题也必然会涉及人与机器人、与人工智能的关系问题。这些问题包括机器人、人工智能是否拥有与人平等的政治权利?它们又是否具备充足的责任能力?在这些问题面前,人类中心主义伦理学走向了终结。或许,我们可以开始面对未来的后人类伦理学。


 




 来源:《社会科学战线》2018年1期
相关文章
共有评论 0相关评论
发表我的评论
请遵守《互联网电子公告服务管理规定》及中华人民共和国其他有关法律法规。
用户需对自己在使用本站服务过程中的行为承担法律责任。
本站管理员有权保留或删除评论内容。
评论内容只代表网友个人观点,与本网站立场无关。
用户名  密码  验证码 看不清楚,换张图片
0条评论    共1页   当前第1