大家好,欢迎来到IT知识分享网。
王淑庆
自阿西莫夫(I. Asimov)1942年提出机器人学三大法则的构想以来(参见阿西莫夫),各种关于人工智能的科幻小说与电影层出不穷。这些科幻作品引起了人们的极大兴趣,一个重要原因在于,它们把似乎是人类所独有的道德情感与品质赋予了作为智能机器的人工物。最近二十年,随着计算机自主性技术的不断提高,以吉普斯(J. Gips)、艾伦(C. Allen)、安德森夫妇(M. Anderson & S. L. Anderson)等为代表的哲学家们提出了人工道德行动者(artificial moral agents, 简称AMAs)的构想,以让机器拥有道德能动性,并探讨了其在理论与实践上的实现路径,这让科幻作品中的“有情感、有善恶意识的机器人”走向现实的可能性不断增大。(cf. Gips; Allen; Anderson, M.&Anderson, S.L.)然而,更多的哲学家们反对AMAs构想,他们从不同的角度论证构建人工道德能动性是不可能的。这些反驳总体上可以分为三大进路,即以约翰逊(D. G. Johnson)为代表的无自由反驳(cf. Johnson)、以知璨·赫(P. C. Hew)为代表的无责任反驳(cf. Hew)和以斯塔尔(B. C. Stahl)为代表的无意义反驳(cf. Stahl)。
与大多数科幻作品不同,目前对AMAs的各种反驳论证不是宣扬人工智能威胁论,而是类比人类道德能动性的特点,宣称机器不可能拥有人类的道德情感与品质。这就意味着:人工道德能动性的构想是徒劳的。那么,如何理解对AMAs的各种反驳进路?除了部分破坏意义,它们的正面价值是什么?这两个问题对于理解AMAs的反驳进路以及为AMAs的构想进行辩护具有重要意义。
本文首先梳理出三类反驳AMAs构想的论证方式,重点是重构出它们的论证结构,并分析这些论证的推论;接下来,比较这三种反驳的一般共性,同时指出其背后最为根本的哲学假定都是有机观点;最后,从两个方面阐释这些反驳的正面价值:一是它们能够促使支持论者及时调整目标,并反复考虑人工道德能动性在何种意义上是可能的;二是促进哲学家们对机器伦理理论的基础进行反思。
一、对人工道德行动者(AMAs)构想的三种反驳
自艾伦等人明确提出AMAs的构想之后,许多哲学家对其进行了反驳。尽管这些反驳纷繁复杂,但总体上可以概括为三大类。下面分别对它们进行重构,并简要分析这些反驳与传统的道德能动性解释之间的关系,从而为进一步分析反驳进路背后的哲学假定,为其正面价值奠定基础。
1.无自由反驳
所谓无自由反驳,是指从机器没有自由意志这一事实,推出它不可能有道德能动性的论证模式。此反驳有两个核心假定:第一,如果一个存在物缺乏意识或心灵,就不会有自由意志;第二,道德能动性的必要条件之一是具有自由意志,没有自由意志则意味着无法进行自由选择。因此,基于自由意志的反驳论证可重构如下:
拥有自由意志是道德能动性的必要条件;
没有意识或心灵的存在物,就没有自由意志;
人工智能技术无法让机器具有意识或心灵;
所以,基于算法的智能机器不可能成为道德行动者。
无自由反驳的代表人物是约翰逊。在约翰逊看来,即使人工智能体的行为满足诸多道德能动性的一些条件,它不满足、也不可能满足最关键的一个条件:心理状态。一般认为,心理状态是人和高级动物所特有的内在状态,它是心灵的内在表征。人类行动者的心理状态认知性更强,人类可以通过归纳等方法认识世界并进而预测未来的状态,这使得人类行动者有选择为善或作恶的多种可能。然而,计算机系统没有心理状态,自然就没有自由意志。约翰逊甚至认为,即使心理状态可以被构造,它们也没有意图去实施行动——而这源于行动者的自由。由此可见,约翰逊基于机器没有自由意志的前提,得出机器不可能有基于自由的行动,从而那些被宣称能够构造出“人工心理状态”的东西也是被决定的,而无法让机器真正具有道德能动性。(cf.Johnson)此外,奈斯(R. Nath)和萨胡(V. Sahu)也认为,人类伦理思考的核心是心灵的观念,但人类心灵具有自我意识性,而这正是机器所缺乏的性质。(cf. Nath & Sahu)由于机器没有心灵,他们进一步否定机器可以有自由意志和道德情感。可见,奈斯和萨胡的观点比约翰逊的观点更为彻底。
当然,仅从功能主义的角度看,智能机器的行动可以有它的道德功效。比如,它可以改变人工智能体的状态并以这种方式“做事”,从而对道德受动者(moral patient)产生有利或有害影响。约翰逊认为,人工智能体可以是道德受动者,但它们不是道德行动者,而只是道德能动性的组成部分。如果认为道德受动者也是道德实体,那么关于智能机器、道德实体与道德行动者的关系就是:“计算机系统是道德实体,但不是单独的道德行动者。”(Johnson, p.203)由此看来,人工道德能动性的无自由反驳,并不是完全否定构建AMAs的意义,而是要反对把智能机器看作真正的道德行动者。
2.无责任反驳
在一些哲学家们看来,即使机器的行动能够展现出对人类行动者的道德关怀,由于对其进行惩罚没有任何意义,从而机器无法承担道德责任——这就是人工道德能动性的无责任反驳。这种反驳较早可追溯到库菲利克(A. Kuflik),他认为对于计算机的任何决策,人类都应当承担最终的道德责任。(cf.Kuflik)无责任反驳的论证可以重构如下:
为自身的行动承担道德责任是道德能动性的必要条件;
智能机器没有任何实在感觉,对其奖励和惩罚没有意义;
如果惩罚一个存在物是没有意义的,则它无法承担责任。
所以,智能机器不管多么智能,它都不可能成为道德行动者。
此论证的第二个前提最为关键,它表达了道德责任与惩奖之间的关系:“一个人为其所作所为(或不作为)及其相关后果负有道德责任,指的是此人应当由此得到相应的奖赏或责罚。”(虞法、朱菁,第87页)根据类似的论证,斯帕罗(R. Sparrow)甚至得出:“机器越自主,就越没有什么东西能为它的行动负责。”(Sparrow, p.66)这足够说明:完全自主的智能机器的道德后果是非常危险的,而不是另外一些哲学家所宣称的——机器能够成为道德上值得称赞的道德行动者。比如,如果一个军事机器人不能为它们的决策负责,那么使用军事机器人那一方对待敌人就像对待寄生虫一样,而不需要对它们进行任何道德考量。人们无法惩罚这类军事机器人,从而不可能让军事机器人来为它们的行动负责。(cf. Asaro)
在承认机器无法承担责任的基础上,知璨·赫认为,在现有的技术下,人工智能体不需要为它的行动承担任何责任,而人类则要承担全部责任。(cf. Hew)在他看来,如果一个行动者在道德上是值得称赞的,那么它的行动规则与应用这些规则的机制,必然不是被外部的人类完全给予的。因此,如果我们接受人工道德能动性的无责任反驳,那么后果就是:人工道德能动性在技术上是完全没有可能的。
3.无意义反驳
与无责任反驳的立场一样,无意义反驳者们也对人工道德能动性持悲观态度。他们认为,不管智能机器多么智能,它们都是基于计算机系统的算法;然而,算法只是人类赋予的,它虽然能够处理信息,却不能够理解信息的语义部分,即无法理解信息的意义。而如果无法理解信息的意义,也就无法拥有道德能动性。这种反驳的论证可重构如下:
能够进行道德判断是道德能动性的必要条件;
基于算法的计算机系统无法理解信息的意义;
如果不能理解信息的意义,也就无法进行道德判断。
所以,基于计算机算法的智能机器不可能成为道德行动者。
无意义反驳的代表是斯塔尔。他认为,信息(即具有意义的数据)是认知伦理学的基本概念,计算机有一些特征使得它拥有道德能动性。但是,当前的计算机并不能捕捉到信息的意义,从而无法反映任何道德性。信息关心的是事态的真实性以及规范性评价,而计算机仅仅是信息处理器。为了处理信息,一个实体需要拥有比数理规则更多的东西。之所以机器无法捕捉到信息的意义,是因为意义是一个社会和认知的过程,它是一个心灵哲学、形而上学以及认识论相关的概念。斯塔尔甚至说:“当今的计算机只是数据处理器,而不是信息处理器。”(Stahl, p.80)由此,可以得出结论:即使计算机的道德能动性是可能的,在可预见的未来也是看不到任何前景的。
此外,还有其他的反驳方式,比如基于情感体验的反驳方式和社交互动的反驳方式。但这些反驳都与内在体验相关,它们总体上都可以归为以上三种反驳中的一种。事实上,以上三种反驳都与道德能动性的传统解释相关。首先,无自由反驳和无责任反驳基于道德能动性的两个必要条件,即自由意志和承担责任;其次,无意义反驳则与道德判断相关,因为道德判断是道德推理的基本前提。由此可见,这三种反驳之所以能引起众多关注,关键就在于它们抓住了道德能动性的传统解释的必要条件与基本前提。这也意味着,这些反驳的背后有更进一步的哲学预设。
二、人机道德能动性类比与有机观点
以上三种反驳最大的共性,就是根据人类的道德能动性特点去类比机器。这种类比有它合理性的一面,它把握住了人类道德能动性的一些根本特点。此外,这三种反驳都假定无生命的机器无法获得道德能动性,以此得出机器成为道德行动者的荒谬性。
1.道德能动性类比
约翰逊等人的无自由反驳的一个前提是:人类的心灵是其道德产生的根本原因。这是因为,有了心灵,才可能有善心和恶心之分。比如,孟子所说的“良心”就是好的心灵,教育可以加强和发展这一善心;而霍布斯说,人在自然状态下人对人是一种战争状态,这和荀子的“人性本恶”非常类似,教育可以使得自然的“恶心”向善。如果机器根本没有“心灵”,那就连告子所说的“对其引导”的可能性都没有——能够引导“心灵”向善或向恶,至少说明“心”是存在的。可见,基于人类本性的类比,由于机器缺乏心灵的可能性,约翰逊和奈斯等人否定它们能够拥有道德能动性,从而机器也不可能成为道德行动者。
在某种意义上说,人类个体之所以要讲道德,是因为怕被社会共同体惩罚。而“人是天生的政治动物”,无法摆脱共同体而存在,所以就必须要考虑承担被惩罚的痛苦。人类个体害怕惩罚,在于两点:第一,人类和所有动物一样,有肉体之躯,很容易受到惩罚;第二,人类不是完全被决定的,人可以因为痛苦(特别是被责备被惩罚遭受的精神痛苦)而改正错误,这一点其他动物(少数高级动物除外)就非常难以做到。然而,机器没有肉身,从而即使对之进行惩罚也不会感到痛苦;而且,机器没有精神,也不会受到精神问题困扰——这两点使得它无法承担任何责任,从而和人类的道德完全不同,因而库菲利克等人认为只有人类才能承担责任。
从道德决策的角度看,人们在进行道德决策时有两种方式:一是进行道德方面的实践推理,二是基于道德直觉。不管是哪种道德决策方式,都需要对所观察或经历的事实或场景进行道德判断。在这个意义上,道德判断是道德能动性的必要条件之一。人类能够进行道德判断,从根本上源于人类能够理解信息的道德意义。但是,对于机器来说,它们只能处理语形内容,虽然能够处理数据,却无法理解信息的语义内容,即无法理解信息的意义。斯塔尔由此认为,既然机器无法理解信息的意义,自然也就无法理解信息的道德意义。正如斯坦森(P. Stensson)等人认为的:“技术人工物没有它们自己的生命,所以不可能知道基本的人类价值的真实意义。”(Stensson & Jansson, p.455)可见,上述两种看法其实和塞尔的“中文屋论证”如出一辙:计算机能够处理中文符号,但无法理解中文的意义。因此,以上三个类比都是从人的道德能动性的不同侧面出发,进而判定机器拥有道德能动性的不可能性。那么,他们为什么要进行这种类比?笔者认为,这根源于他们在深层上都承认似乎天然合理的“有机观点”。
2.有机观点
所谓有机观点,就是指在承认道德能动性的主体必须是有机物的前提下,得出机器不可能具有道德能动性的观点。其论证可构造如下:
具备有机物身体是道德能动性的必要条件;
基于算法的纯粹智能机器缺乏有机物身体;
所以,基于计算机算法的智能机器不可能成为道德行动者。
此论证中的核心是第一个前提,它的成立依赖于有机观点的如下三个断言(Torrance, p.502):
第一,有机物与纯粹机器存在着根本性的不同;
第二,只有有机物才拥有直观上的道德地位;
第三,道德思维、道德情感与道德行动都是有机物才可能拥有的。
人们可以相信第一个断言,因为它很模糊,它甚至没有说有机物与机器有什么根本不同。对第二个断言来说,以目前的技术水平,人们也可以承认它,即认为非有机物(比如智能机器人)目前还不具有道德行动者地位。真正引起争论的是第三个断言,如果说机器能否有道德思维和情感还存有疑问,但不少研究者认为机器可以有独立而自主的行动。
事实上,在无自由反驳中,主要涉及到第三个断言。如果机器不可能有心灵,也就不会有道德思维和道德情感——因为只有拥有心灵的存在物才能进行道德思维和感受道德情感。而机器不是有机物,这使得它缺乏心灵的物质基础。
至于无责任反驳和无意义反驳,也主要涉及到第三个断言。如前所述,有可能接受惩罚是承担责任的前提。人类甚至部分高级动物能够承担责任,就在于它们的身体是有机的,从而能够体会到快乐与痛苦;而无机机器无法拥有有机身体,从而不会有快乐与痛苦的情感与体验,对其惩罚即使是可能的,也和人类的道德情感完全不同。在无意义反驳中,主要涉及到道德理解的机制问题。如果认为机器不可能理解信息的道德意义,那很有可能是因为机器不拥有能够理解信息意义的心灵,也就无法理解道德思维和其他行动者的道德情感——这在根本上与无自由反驳是一样的。
以上分析表明,对人工道德能动性的三种反驳都需要预设有机观点,特别是有机观点中的第三个断言。笔者认为,无自由反驳比无责任反驳和无意义反驳更为根本,因为后两者在有机观点的视角中,都可以化归为“心灵的物质基础是有机物”这一根本观点。当然,有机观点本身也许是错误的,因为它的第一个宣称不一定完全成立,即假定人机在道德上的根本区别可能是错误的。然而,有机观点是各种反驳AMAs进路都假定的观点,因而托伦斯才认为:机器伦理在未来应该认真考虑有机观点。(cf. Torrance, p.495)
三、反驳AMAs的正面价值
事实上,在构建AMAs的问题上,哲学界的反驳声音远远大于支持的声音。表面上看,这些反驳似乎仅具有破坏性,毕竟反驳者们没有给出任何新的建设性理论。然而,这些反驳也有其正面价值,因为它们能够促使支持者们适时调整AMAs的目标构想,并促进对机器伦理学的理论基础的反思。
1.人工道德能动性的目标调整
在弱人工智能的前提下,人工道德能动性欲模仿甚至超越人类道德能动性,自然面临很多困难。但是,如果仅仅基于道德上的功能主义,那么就可以对AMAs构想目标作一些修改,以让其在理论上更具可能性。其中,摩尔(J. H. Moor)、萨里斯(J. P. Sullins)和瓦拉赫(W. Wallach)等人的调整策略在很大程度上就可以看作是对反对派的回应。
首先,摩尔提出了人工道德行动者的等级说。在摩尔看来,在当今的人工智能技术快速发展的时代,我们不能、也不应该不思考机器相关的伦理问题。(cf. Moor, p.18)而机器能否成为伦理行动者,在逻辑上取决于我们如何界定机器伦理。当然,现在就制造出像人一样有自由意志的道德机器,自然非常困难也没有必要,于是他提出了著名的人工道德行动者的层级划分:有伦理影响的行动者、隐式的伦理行动者、显式的伦理行动者以及完全的伦理行动者。在这种人工道德行动者层级划分下,不管是无自由反驳,还是无责任反驳或无意义反驳,它们都只是针对完全的伦理行动者的,而其他三类道德行动者依然可以成为追求的目标。如今,摩尔的人工道德行动者的层级思想已成为构建人工道德能动性的标杆,人们在人工道德能动性上更多地追求显式的伦理行动者:智能机器不仅能够进行道德推理与实施道德行动,还能够解释为什么要这样做。
其次,萨里斯探讨了机器人成为道德行动者需要满足的充分条件。萨里斯认为,在一定的条件下,机器人可以被看作道德行动者。但与摩尔不同的是,他试图给出人工道德能动性的充分条件。当然,完全以人类道德能动性的条件去构建人工道德机器,肯定是不现实的。所以,他适当放低了条件。在萨里斯看来,如果人工智能体或机器人要成为道德行动者,需要满足三个条件:一是充分的自主性;二是有意图去做善与恶;三是对其他行动者展现出责任性。(cf. Sullins, pp.23-30)所谓充分的自主性,就是指机器在与环境的交互中,能够“根据自己的要求”而采取相关的行动,而不是根据人给定的命令做事;有意图去做善事或恶事,则是指机器能够自己产生善和恶的意图(人工意图),并通过行动让这种善恶能够实现——这显然是充分自主性延伸到道德领域的结果。至于责任性,看上去最难实现,但它不是指机器能够独立地承担责任,而只要求智能机器能够展现出对他人负责的那种态度。显然,萨里斯所提到的三个条件,与通常哲学家们所认为道德能动性的两个必要条件(拥有自由意志、独立承担责任)相比,要求低得多,而且它们是有可能实现的——这就给AMAs的构建带来新的希望。
最后,瓦拉赫和艾伦提出了更为现实的伦理价值和情感敏感智能机器设想。瓦拉赫和艾伦认为,一个好的道德智能体能够监测可能的伤害或者对责任的疏忽,并能采取措施避免或者降低那些不想要的结果。(参见瓦拉赫、艾伦,第12页)在他们看来,机器道德拓展了计算机伦理学领域关注的问题,从关注人们用计算机做什么到机器自身做什么。他们相信,更多能力有限的系统不久将会建成,这样的系统将有评估其行动的伦理后果的某种能力。而且,人类需要这些自主的机器,从而评估它们面对的选项的伦理可接受性。他们甚至认为,人工情感对于机器的能动性是非常有帮助的:“电脑做出的道德选择从一开始就不会受到情感所干扰。因此,智能机器就不会受像暴怒或者性嫉妒这样的情感所劫持。”(瓦拉赫、艾伦,第16页)
由上可见,支持人工道德能动性的四位代表,都放弃了理想的人工道德行动者的构想。相反,他们转而提倡初、中级层次的AMAs。在笔者看来,这种局面的出现,主要就是源于反驳者们的刺激。相对于高级的AMAs构想,初、中级层次的构想有更大的实现可能性——因为这种目标着眼于人工道德能动性的功能主义,它的目标主要是让机器对伦理价值具有敏感性,同时能够在功能上实现道德行动的取舍,而不管机器是否真的拥有自由意志或承担责任的独立能力。此外,对人工道德能动性的各种反驳,还促使我们反思机器伦理的理论基础是否牢靠的问题。
2.对机器伦理的理论基础的反思
一般认为,机器伦理是指研究人们与人工智能体交互中,作为智能体的机器的行动的伦理问题,它是应用伦理学的一个分支。为了更好地理解机器伦理在人工智能哲学中的地位,有必要考察一下它在人工智能哲学中的地位。在施阿夫那替(V. Schiaffonati)看来,人工智能哲学包括三大领域:一是人工智能的基础问题,如智能的本性、人工智能体的可能性;二是人工智能的中心问题,如心灵的可计算哲学、基于模型的科学哲学;三是人工智能的伦理后果问题,如人机交互、信息伦理等。可见,机器伦理隶属于第三个研究领域,不管是人机交互还是信息伦理,都要考虑机器行为的伦理特性。(cf. Schiaffonati, pp.537-552)笔者认为,对AMAs的三种反驳进路至少在两个问题上能够促进对机器伦理理论基础的反思。
第一,促进对“人工恶”(artificial evil)概念的明确化。传统的道德哲学把恶分为两种,即人为的恶与自然的恶。在人工智能道德哲学的视域下,人们更多地是考虑人工上的善与恶,它们属于人为的善恶之范畴。相比智能机器给人们带来善的结果,人们更希望智能机器不要作恶。所以,人工恶比人工善更迫切地得到人们的关注。弗洛里迪(L. Floridi)和桑德斯(J. W. Sanders)认为,人工恶可以定义在赛博空间(cyberspace)中,它是一种混合的恶。(cf. Floridi & Sanders)这类似于拉图尔(B. Latour)的行动者网络理论,只有在技术的网络中,才能理解人工恶的意义。构建人工道德能动性的目标是让机器主动做善事,但最起码的是避免对人类带来恶。那么,人工恶是如何产生的?有什么办法从根本上解决人工恶的破坏力?解释人工恶并从嵌入的层面尽量防止人工恶的产生,就是机器伦理乃至信息伦理与信息文明的基本任务。
第二,促进对人工道德能动性的完整理解。吉普斯认为,机器伦理最基本的一个问题是:人工智能体的行动在何种意义上可以被认为是具有伦理特性?(cf. Gips)因为只有在回答了此问题的基础上,才能够回答诸如应该把何种伦理理论嵌入到智能机器中,以及人们应该如何对待机器,等等。例如,当一个特定功能的机器人只能被当作道德受动者,那么就没有必要让把某种伦理理论嵌入其中;相反,那种如果一个较为通用的机器人还可能拥有道德能动性,则可以考虑它应该处于何种道德层级下。在道德能动性的反驳者们看来,机器不可能拥有人类意义的道德能动性,因而人们应当把何种人工道德能动性赋予人工智能体,就变成了支持派需要解决的一个理论问题。即使是反驳者的代表约翰逊,她也认为虽然智能机器不是道德行动者,但它具有道德特性,这种特性需要在设计者、人工物以及使用者的网络中才能得到完整的理解。(cf. Johnson)
由上可见,对人工道德能动性构想的各种反驳,确实促使一些哲学家就机器伦理的目标进行了调整,并试图对机器伦理的理论基础进行更深入的研究。事实上,机器伦理目前的哲学基础还不是很牢靠,需要哲学家们进一步回答关于人工善与恶以及人工道德能动性何以可能的问题。
四、结论与进一步的研究问题
根据以上分析,可以得到两个基本结论:第一,对人工道德能动性的各种反驳论证在根本上都是基于有机观点,而且无自由反驳比其他两种反驳更为基本;第二,对人工道德能动性的反驳,不仅能促进支持派研究者们适时调整人工道德能动性的目标,还有助于哲学家们对机器伦理的理论基础进行反思。
可以预见,不管人工道德能动性的构想能否最终实现,科学家们会一直持续地研究人工道德机器,因为“人类研发更为先进和完美的机器人的步伐是无法阻挡的”。(杨通进,第113页)而且从技术可能上说,也许未来我们会制造出“人造的人”,即有自我意识和社会关系能力的机器。(参见雷瑞鹏、冯君妍)如果说完全的AMAs还为时尚早,而只对价值有部分敏感性的机器又过于初级,那么如何构造中级水平的AMAs就是更为值得探讨的话题。于是,以下两个问题就值得进一步研究。
第一,中级的AMAs应当满足什么原则。如果中级的AMAs更值得追求,那么首要的问题便是,在构建中级的AMAs时,应当遵循什么原则。显然,阿西莫夫的“机器人三大法则”是不适合的,因为它只是一种要求机器服役于人,而不能进行更高层次的道德推理。(参见王淑庆)一种可设想的方案是,基于道德上的功能主义,考虑机器能够为了他者的利益,而“主动地”负部分责任。这又包括两个方面:一是“所为”尽量符合基本的道德规则,二是“不为”尽力避免不必要的伤害。
第二,在承认有机观点的前提下,人工道德能动性在何种意义上是可能的。承认有机观点,本质上就是承认人类无法超越“上帝”——人类无法制造出有道德的机器,而“上帝”则能够轻而易举地通过创造人类而做到这一点。所以,人工道德能动性只有在非人类道德的意义上才有可能。然而,有机观点是否成立,依然有待进一步的研究。正如莫雷诺(A. Moreno)和埃切贝里亚(A. Etxeberria)所言:“有生命的组织依赖特殊的物质性,目前依旧不清楚机器人能否完全地模拟它。”(Moreno&Etxeberria,p.163)
参考文献
[1]阿西莫夫,2014年:《机器人短篇全集》,叶李华译,江苏凤凰文艺出版社。
[2]雷瑞鹏、冯君妍,2019年:《机器人是道德行动者吗?》,载《道德与文明》第4期。
[3]瓦拉赫、艾伦,2017年:《道德机器:如何让机器人明辨是非》,王小红译,北京大学出版社。
[4]王淑庆,2018年:《面向人工智能的形式伦理及其逻辑基础》,载《伦理学研究》第4期。
[5]杨通进,2020年:《道德关怀范围的持续扩展——从非人类动物到无生命的机器人》,载《道德与文明》第1期。
[6]虞法、朱菁,2017年:《道德责任的四重根》,载《中国高校社会科学》第4期。
[7]Allen,C.et al.,2000,“Prolegomena to any Future Artificial Moral Agent”,in Journal of Experimental and Theoretical Artificial Intelligence 12(3).
[8]Anderson,M.& Anderson,S.L.,2007,“Machine Ethics:Creating an Ethical Intelligent Agent”,in AI Magazine 28(4).
[9]Asaro,P.,“A Body to Kick,But Still No Soul to Damn:Legal Perspectives on Robotics”,in P.Lin et al.(eds.),Robot Ethics:The Ethical and Social Implications of Robotics,Cambridge,MA:MIT Press.
[10]Floridi,L.& Sanders J.W.,2001,“Artificial Evil and the Foundation of Computer Ethics”,in Ethics and Information Technology 3.
[11]Gips,J.,1995,“Towards the Ethical Robot”,in K.Ford,C.Glymour & P.Hayes (eds.),in Android Epistemology,MIT Press.
[12]Hew,P.C.,2014,“Artificial Moral Agents are Infeasible with Foreseeable Technologies”,in Ethics and Information Technology 16.
[13]Johnson,D.G.,2006,“Computer Systems:Moral Entities but not Moral Agents”,in Ethics and Information Technology 8.
[14]Kuflik,A.,1999,“Computers in Control:Rational Transfer of Authority or Irresponsible Abdication of Autonomy?”,in Ethics and Information Technology 1(3).
[15]Moor,J.H.,2006,“The Nature,Importance,and Difficulty of Machine Ethics”,in IEEE Intelligent Systems 21(4).
[16]Moreno,A.& Etxeberria,A.,2005,“Agency in Natural and Artificial Systems”,in Artificial Life 11.
[17]Nath,R.& Sahu,V.,2020,“The Problem of Machine Ethics in Artificial Intelligence”,in AI and Society 35.
[]Schiaffonati,V.,2003,“A Framework for the Foundation of the Philosophy of Artificial Intelligence”,in Minds and Machine 13.
[18]Sparrow,R.,2007,“Killer Robots”,in Journal of Applied Philosophy 24(1).
[19]Stahl,B.C.,2004,“Information,Ethics,and Computers:The Problem of Autonomous Moral Agents”,in Minds and Machine 14.
[20]Stensson,P.& Jansson,A.,2014,“Autonomous Technology-sources of Confusion:A Model for Explanation and Prediction of Conceptual Shifts”,in Ergonomics 57(3).
[21]Sullins,J.P.,2006,“When is a Robot a Moral Agent?”,in International Review of Information Ethics 6.
[22]Torrance,S.,2008,“Ethics and Consciousness in Artificial Agents”,in AI and Society 22(4).
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/48947.html