人工智能医学诊断系统的道德责任研究——以责任空场问题为中心
Posted 中国医学伦理学
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了人工智能医学诊断系统的道德责任研究——以责任空场问题为中心相关的知识,希望对你有一定的参考价值。
欢迎关注“中国医学伦理学”
人工智能医学诊断系统的道德责任研究
——以责任空场问题为中心
夏永红1,李建会2
(1华南师范大学科学技术与社会研究院,广东 广州 510006,yonghongx@126.com;2北京师范大学哲学学院,北京 100875)
人工智能是通过计算机实现的在一定程度上可以自主运行,并替代或辅助人类进行推理、识别、决策、互动和操作等智能活动的人工能动者。在医学领域,人工智能的应用目前主要包含了两个分支:虚拟的和物理的。虚拟分支主要依赖于以计算机程序形态存在的虚拟人工智能能动者,它的主要应用包括:①医疗信息管理系统。比如结合自然语言处理技术,自动读取患者电子病历,以实现辅助诊断、医疗处方警示和规范、流行病学调查等;②健康管理系统。收集健康智能设备和APP的用户大数据,并在合规合法的情况下打通电子病历数据,对这些数据进行综合分析和处理,以评估疾病和健康风险,对用户给出个性化和精准化的医疗、运动和饮食建议;③自动诊断和分诊系统。结合对医学影像检查、化验数据、电子病历数据的分析,以及对患者的自动问诊,自动给出诊断意见并开具处方,或辅助医生作出诊断。物理分支则主要包括以物理形态存在的智能机器人,它在很多医学设备和看护机器人上都有应用。目前应用最为广泛的是手术机器人,它们可以被作为外科医生助理,甚至是担任主刀医生的角色[1]。
医学人工智能的广泛应用,将会冲击目前的医疗现状,并带来新的医疗风险,包括:①医疗安全性问题。人工智能如果给出不准确或错误的医疗建议,将给患者带来严重的健康后果,如何规范医学人工智能的合理应用,将会考验医疗政策和伦理规范的制定者;②数据隐私问题。如果没有对健康和病历数据的收集和使用进行规范,将会侵犯用户或患者的私人隐私;③医疗公正问题。不同年龄、阶层、地区之间的数字设备使用水平,以及医疗资源分配的不均,可能会让医学人工智能不能公正地惠及所有人;④责任划分问题。当智能诊断系统、手术机器人产生诊断错误和操作错误的时候,有可能会产生责任划分上的困境[2]。在这么多的风险中,医疗安全性问题更多属于技术层面的问题,我们可以通过改善医学人工智能系统的稳健性和准确性来避免;医疗公正问题更多属于政策方面的问题,可以制定更具普惠性的医保政策,对弱势群体进行知识扶贫、知识救助;数据隐私问题兼具技术和政策维度,一方面可以改进数据保密和加密技术,另一方面应该从政策上明确各种数据的使用范围。只有责任划分问题,无法纯粹依靠技术的进步和政策的改进而得以解决,它更多地需要在道德哲学层面澄清基本的责任归属。
医学人工智能意味着它取代了先前由医生执行的某些任务,这无疑会极大地改变医生与患者之间的关系,从而也会改变医生与患者之间的道德责任划定。如果产生医疗事故,那就不能简单地归责于医生,而需要把更多的责任相关者带入进来,比如医学人工智能的开发商、算法的设计者、训练数据的提供者[3],乃至医学人工智能的监管者等。然而,如何在这些责任相关者之间进行责任划分?是否会面临发生了医疗事故却无人负责的状况?这一问题将会成为亟待解决的伦理问题。本文将聚焦于医疗责任划分的道德哲学问题,通过引入角色责任和分布式责任,来尝试解决上述问题。
1
一个完整的医学诊断流程一般可以分为问诊、检查和决策三个阶段。在这个过程中,需要搜集的就是确诊某种疾病的证据。在问诊阶段,医生基于临床知识,根据患者的主诉、病史获得初步的诊断。如果问诊获得的证据强度达到某个治疗阈值,则可以初步确诊疾病以开始治疗;如果证据强度低于治疗阈值但达到了检测阈值,则需要开出医学检查单,在获得相关的影像、细胞检查结果后,如果证据强度达到了治疗阈值,就可以开始治疗[4]。这三个诊断阶段涉及多种智能。首先是问诊阶段的语言交互智能,问诊是一种开放场景下的问答,旨在了解患者的主诉和病史,医生需要见机进行开放式的提问,鼓励并引导患者的讲述,并对患者的反馈或反问有及时和恰当的回应。其次是图像识别智能,医生需要熟练地识别影像学检查结果中各个器官组织,会区分正常组织与病灶的相关特征,并根据病灶的特征推断出可能的病因。此外,还包括认知计算智能,医生需要基于检测结果、患者主诉和病史等证据,来进行因果-概率推断,对疾病作出诊断。
目前医学人工智能领域的众多产品,正是针对医学诊断中所涉及的言语交互、图像识别和认知计算等三种主要智能而开发。言语交互和认知计算两个领域往往相互交织在一起,比如智能问诊、导诊机器人、临床决策支持系统等产品。这些系统的核心是一套复杂程度不同的医学知识图谱,它集成了大量的结构化的医学知识,在其开发过程中需要基于大量医生的专业判断,对大量现有的电子病历、医学诊断报告和治疗方案的数据进行结构化处理。根据相应的医学知识图谱,这些医学人工智能系统就可以根据从患者获得的信息作出推断,最终输出包括分诊、诊断、预测和建议等推论结果,以辅助医生的决策。图像识别领域的产品包括智能影像辅助诊断系统和细胞病理自动诊断分析仪,二者的核心都是一套训练好的深度学习模型。它的开发需要专业医生对大量电子影像的和细胞病理切片的病变进行标注,再把这些标注数据喂入预先设计好的训练模型,经过工程师的调参和训练,最终就可以在输入未经标注的检查数据之后,自动识别其中的病灶和病变[5]。
可见,知识图谱和深度学习是当下医学人工智能两种主要算法,其中深度学习又主要应用于分析影像学和病理学检查结果。两种算法给医学人工智能带来了两个非常重要的特征:首先是数据依赖性,无论是知识图谱还是深度学习,都需要海量的医学专业数据;其次是不可解释性,尤其是深度学习,难以解释从输入到输出的逻辑过程,从而也意味着无法解释医学人工智能作出的诊断的理由或逻辑。这两个特征分别带来了两个相互关联的后果。
对专业数据的依赖性,意味着人工智能的能动性是分布式的,而不仅仅是一个被人类能动者使用的简单工具。对于使用工具导致的不良后果,我们往往会归责于使用者和监管者,比如使用刀具或枪械杀人,我们会惩罚使用者,并可能会问责政府是否存在对刀具或枪械的监管不力。然而,人工智能的分布能动性意味着,人工智能的设计者和数据的提供者都可能导致人工智能应用的不良后果。正如塔代奥和弗洛里迪所指出的,人工智能的能动性是分布式的而非个体性的,因为“基于人工智能的决策或行动的效果,通常是许多行动者(包括设计者、开发者、使用者、软件和硬件)之间无数次交互作用的结果。”[6]分布式能动性带来了分布式的道德责任。首先,专业数据对于医学人工智能是基础性的,数据的提供者或标注者是必然的责任承担者。如果医生对数据进行了错误的标注,很可能会增加医学人工智能产品开发的难度,更严重的情况是,开发出来的产品产生错误输出,对患者进行错误的诊断。其次,设计者也需要承担道德责任,因为医学人工智能模型的受众,在很大程度上来自于设计者或开发商的选择偏好。如果没有一种普惠、公正的理念的指导,由于弱势群体的医学数据相对匮乏,很可能会导致某种“算法歧视”,即模型的准确性在弱势群体中大打折扣。
另一方面,由于当前的人工智能存在可解释性问题,即无法解释人工智能的决策背后的理由或逻辑,相关的能动者可能难以对人工智能带来的后果承担责任。对于设计者而言,人工智能是一个黑箱,他无法解释模型何以会有这样的输出,他对模型和参数的调节往往和“炼丹”无异;对于标注者而言,他无法理解人工智能为何不能举一反三,人工智能往往会脱离情境,输出他明显觉得错误的结果;对于使用者来说,他无法理解人工智能为何会作出一些超出常理的决策,如果没有合理的理由又如何信赖这些决策;对于监管者而言,他可能会无法确定人工智能究竟应该作为一种纯粹的工具,还是作为一种具有某种自主性的能动者来进行监管[7]。因此,人工智能的所有相关的能动者都无法把控人工智能应用的后果,都面临着人工智能应用的某种运气和不确定性。
如果人类能动者不能担责,那么人工能动者可以担责吗?人工智能是否可以成为道德的能动者和受动者,仍然是一个有争议的问题[8]。科林·艾伦(Colin Allen)试图用道德图灵测试作为判定道德能动者的判准[9],而斯帕罗(Robert Sparrow)提出用图灵分诊测试来判定人工智能是否可被视为道德受动者[10]。鉴于目前并没有任何一种人工智能能动者在现实中通过了这两种测试,我们现在一般并不会把人工智能作为道德能动者和受动者,因而也不会把它们视为道德责任的承担者[11]。这样,我们就无法简单地把医疗人工智能作为医生的替代者,在遇到医疗事故的时候归责于医疗人工智能。
这就让道德责任的归责尤其困难。因为很可能出现这样的情景,每个人看起来都没有做出什么故意的坏事,但最终却导致了一场不幸的医疗事故,以至于我们很难去单独地归责于谁,最后的结果是谁也不必承担责任。我们不妨把这称之为责任空场问题。责任空场往往意味着,某个坏的结果最好称之为不幸,而非不正义,或者说,是某种坏运气,而不是坏的行为导致了坏的结果。然而,我们假设一个患者因为人工智能的错误诊断而被不当治疗,最后丢了性命,但因为这是机器作出的诊断,而且没有人能预知和解释机器何以作出这种诊断,从而也就没有人需要为此承担责任。如果我们作为患者家属,可能会觉得这是不正义的,无人担责不符合我们的道德直觉。
总而言之,医学人工智能的数据依赖性导致了一种分布式能动性,不可解释性产生了一种道德责任空场问题。两者之间又是高度相关的,因为正是分布式能动性,产生了弗洛里迪所说的分布式的道德行动,也就是说,在一个人类与机器混杂的行动体系中,那些道德上具有善恶属性的行动,很可能是被那些在道德上中立的互动所引起的[12]。于是,我们就很难追究不同的人类能动者的责任,从而产生了一个道德责任空场。
2
所谓道德责任,也就是一个人应该在道德上为其行为所导致的后果负起责任。这实际上意味着一个人的行为与其所需要负责的后果之间,必须存在着一种因果关联。我们可以称其为道德责任的因果条件。然而,行为与后果之间的因果关联对于道德责任是不充分的。亚里士多德在《尼各马可伦理学》中提出,一个人只有当它的行为是出于意愿的时候,才有资格被称赞或谴责,也就是说,才可以承担道德责任。在亚里士多德看来,一个出于意愿的行动具有两个特征:首先,行动是由一个能动者发起的,而不是外部强迫的;其次,能动者应该意识到自己所做的事情及其后果[13]。从亚里士多德的观点出发,我们可以归纳出另外两个道德责任条件:一个是控制条件,即与某种不良后果相关的行为处于能动者的控制范围之内;另一个是认知条件,即能动者可以预知到自己的行为决策可能会导致某种不良后果。这两个条件加上因果条件一起界定了我们对道德责任的传统理解,它们一起所表达的意思是,我们只对哪些我们可以预知的、在控制范围内,并且由我们的行为所导致的后果负责。假设某种后果因为因果链条过长,超出了我们的控制和认知,那么我们就无须对此负责。因此,道德责任就意味着我们只对不正义负责,不对不幸负责,因为后者超出了我们的认知和控制。更进一步的推论是,对道德的评价只应考虑道德能动者的信念、欲念和意图。这种观念最典型的代表就是康德,他认为善之为善,仅仅因为意念本身就是善的,而非任何可能的后果[14]。因为前者是我们所能控制的,而后者则处在被因果规律所支配的世界中。
然而,这三个条件对于道德责任是否充分?我们可以相像一个人在小区遛狗,但一不留神狗挣脱了绳子,咬到了路上的行人。在这个场景中,如果我们把因果链条限定在从遛狗到咬人这个时间段的话,狗主人不满足前述任何一个道德责任的条件,他没有教唆狗去咬人——不满足因果条件,他在那一刻难以控制狗的行为——不满足控制条件,他在牵狗的时候也不知道它将会咬到人——不满足认知条件。然而,从我们的道德直觉出发,我们显然会认为狗主人应该对被咬的路人负有道德责任。因为他没有尽到一个狗主人的责任,即防止他的狗去伤害别人。这提示我们,很可能还存在着这样一种道德责任,责任人的行为与所负责的后果之间不存在因果关联。
哈特(H.L.A. Hart)将这种责任称之为角色责任(role-responsibility)[15]。任何一个行动者,总是处于特定的社会组织之中,它总是担负了某种岗位、角色和任务,从一种职业或道德规范出发,它应该对其相关的他者负责任[16]。这意味着,一个人不仅不应该去做出错误的行为伤害他者,而且也不应该因不作为导致他者的不幸。角色责任更多地与后者相关。比如,教师应当对学生的学业负责,医生应当对患者的健康负责,这不仅意味着他们不应该伤害学生和患者,更意味着他们需要在职业规范的指导下避免某些不作为,或者说,不能玩忽职守。由此,我们就可以提出一种新的道德责任的条件:能动者本可以作出某种分内的干预以避免或减弱某种不良后果,但却因为不作为而导致了不幸。由于这一条件是以一种反事实虚拟的方式被表述出来的,它是对一种可能模态的陈述,我们不妨将其称之为虚拟条件。显然,在前述的例子,狗主人就满足了失职条件,他本应该给狗戴上口套,但他却没有尽到职责,从而导致了他人的不幸。如果考虑他的不作为的决定本身,他显然满足控制条件,因为他没给狗戴上口套的决定是自愿作出的,也满足认知条件,因为他可以认识到他的这一决定是不合规范的。因此,总体而言,角色责任意味着一个人应当为它的不作为而承担责任,这种不作为的决定需要满足控制条件、认知条件和虚拟条件。
综上所述,一个人可能因为错误的作为而负有道德上的直接责任,也可能因为失职的不作为而负有道德上的角色责任,因此存在着两种不同的道德责任:直接责任和角色责任。前者需要满足因果条件、控制条件和认知条件,后者需要满足虚拟条件、控制条件和认知条件。
这一区分在很大程度上可以帮助我们解决道德空场问题,并把运气带回对道德责任的反思中,也就是说,有时候我们需要对不幸负责。我们总是生活在一个被运气支配的世界,不受控制的自然常常给人们带来不幸。我们往往认为,自然带来的是不幸,人为才产生了不正义。然而,正如施克莱所指出的,自然与人为对于区分不幸与不正义并不重要,问题的关键在于人们“是否站在受害者的立场采取行动,是进行谴责还是宣告无罪,是去提供帮助、排忧解难、作出补偿,还是直接掉头走开。”[17]然而,一个人并不能对受害者采取一种无限责任的立场,他只能作为一个人而不是作为上帝,在其职分范围内承担对他者的责任。如果他不能在其职分范围内帮助、补偿他者,那么他者的不幸就变成了不正义,他就需要对他者承担角色责任。虽然他者的不幸并非是他在因果上直接导致的,并且在很大程度上要归结于来自自然的无常的运气,但是他在道德上却需要为坏运气导致的坏结果负责。
把运气及其后果带入道德评价,表明运气与道德并非互不相关,从而提示我们存在着一种被称为道德运气(moralluck)的东西。内格尔(T. Nagel)指出了这一点,如果一个人所做的事物的某些方面是其无法控制的,并且这些方面影响到了对他的道德评价,那么我们就可以说它受到了道德运气的影响[18]。道德运气无疑会影响到对直接责任的评估,比如两个意图杀人的凶手,一个最终杀了人,另一个因为某种坏运气抑或是好运气,没有杀成人,那么最终前者可能就会背负在程度上更严重的道德责任。然而,无论两个凶手是否杀了人,他们都因为错误的决定和作为,而无法免除道德责任。道德运气的更大作用在于帮助我们理解角色责任。比如两个医生由于同样的疏忽,没有询问他们的患者是否青霉素过敏就开出这个处方,结果第一个医生的患者青霉素过敏死去了,而第二个医生的患者则完全不对青霉素过敏。虽然两个医生都有同样的失职之处,但第一个医生需要承担法律和道德的责任,而第二个医生一般不会有任何人追责他。我们可以说第一个医生和他的患者遭遇了坏运气,但第一个医生无疑需要为他的失职和坏运气承担责任。因此,只要一个人存在着某种失职,让不幸变成了不正义,他就需要为此担责。
3
角色责任无疑可以将大部分不幸归结为不正义,从而极大地填补道德责任的空场。然而,无论如何还存在着这种情形,四种相关能动者都恪守职分,但还是不能防止医学人工智能作出了错误的诊断,最终导致患者的不幸。为此,弗洛里迪提出了一种无过错责任(faultless responsibility)的道德责任原则。这本来是一个法学术语,指的是虽然没有人存在过错,但也需要为此担责。但弗洛里迪认为人工智能的无过错责任是一种基于群体互动的分布式责任,它相对于基于个体故意行为的个体式责任,如果说后者聚焦于对个体的惩罚和奖励,那么前者就主要以对环境损害和福利的分配为导向。弗洛里迪认为,我们可以制定一种机制,不再细究每一个能动者的意图和认知,而是把让这些能动者作为一个网络,共同承担风险和责任,把我们关注的重心从个人发展和福利转向社会系统的福祉和繁荣[18]。由此,任何人工智能系统的相关能动者都可以共担责任,并将一切不幸都作为不正义接受下来。
然而,我们将指出,弗洛里迪的分布式责任方案至少在两个方面存在某种不可解决的错误。首先,人工能动者难以作为分布式责任的承担者,弗洛里迪犯了责任谬置的错误。弗洛里迪曾经认为人机混合体系的分布式道德不需要道德能动者具有意向性和责任性,因此,人工能动者也可以成为道德能动者。尽管它无法承担道德责任,但却具有可问责性(accountability)[19]。但现在他却似乎倾向于认为,分布式道德意味着分布式责任,人工能动者也需要承担分布式责任,虽然依然不要求它具有意向性。然而,这并不能帮我们理解人工智能如何可以承担责任性,因为似乎将人工智能排除出分布式责任体系之后,仍然不影响这一体系的运作。意向性似乎仍然是责任性的构成要素,但由于迄今为止的人工智能还缺乏真正的意向性,人工智能无法成为角色责任的承担者。无论是深度学习依赖的人工神经网络,还是知识图谱所归属的符号主义,其系统的意义都依赖于外部观察者的设计和赋予[20]。也就是说,人工智能系统缺乏一种根据内禀的目的来进行决策的能力,所有的目的、意义和规范都是外部赋予的。在这个意义上,人工智能并不能控制自身的行为,更不能预知自身的行为可能会导致什么后果。因此,人工智能不满足道德责任所必需的控制条件和认知条件,从而不能承担任何道德责任。
其次,在现实中回避个体式责任,要么不可欲,要么不可行。弗洛里迪所说的无过错责任类似于我们前面所说的角色责任,它们都意味着责任人的行为与受害人的损害之间没有因果关系,但责任人的职责却规定了他应该避免引起这种损害。区别在于,弗洛里迪的无过错责任是一种分布式责任,而我们所说的角色责任仍然是一种个体式责任。但在我们看来,如果完全排除个体式责任,分布式责任根本不具有可实行性。分布式责任预设了一个有着共同福祉和利益的共同体,预设了一种具有高度同理心和关注他者的道德德性,这一切都与我们的现实处境完全不符。如果一个共同体中分摊责任的损失,远小于违规获得的私人利益,那么很可能就会导致这样的博弈策略,即每个人都倾向于违规获得更多的利益。最后将导致一种责任公地悲剧,让分布式责任不可行。另一方面,由于无过错责任完全回避了个体式责任,这就意味着每个人都同等地为风险和运气承担责任,也可能会导致这样的结果,即每个人都不愿意冒险,每个人都阻止别人冒险。最终每个人都倾向于不惹麻烦,让新技术的应用和创新变得不再可能。这样的结果就是一种责任反公地悲剧,让分布式责任不可欲。
为了彻底解决道德责任空场问题,并避免分布式责任所导致的责任谬置、责任公地悲剧和反公地悲剧的错误,我们有必要把个体式责任和分布式责任结合起来,把个体式责任作为归责程序的开始,从而尽可能避免责任谬置、责任公地悲剧和反公地悲剧,同时把分布式责任来为最纯粹的不幸兜底,从而彻底解决道德责任空场问题。
个体式责任包括直接责任和角色责任。对于直接责任,只要明确能动者的行为与损害之间的因果关系,就可以很容易地作出判定。复杂的是角色责任的判定,它需要满足一个并不容易确定的虚拟条件:能动者本可以作出某种分内的干预以避免或减弱某种不良后果,但却因为不作为而导致了不幸。困难之处就在于如何界定什么干预是分内的,什么干预是分外的。一个可行的办法是根据每个人在社会中的功能角色来推演其职分。基于一种新亚里士多德主义的视角,每个人都被共同体中赋予了一种功能性的道德和政治角色,美德即意味着一个人对其社会角色的出色发挥。而具体处境下的处事规范,不过是通过某种实践智慧来具体地、情境地把握其社会角色。因此,只要我们明确了这种社会角色,就可以间接地明确角色责任的分内和分外之分。比如,数据标注者的功能角色是提供准确和公正的数据,模型设计者的功能角色是设计准确、公正和安全的模型,医学人工智能使用者的功能角色是规范、谨慎地使用模型,监管者的功能角色是及时颁布相应的技术和伦理规范。这些功能角色无疑只是概略性的,可以在以后的研究中进一步细化,但从这些功能角色,无疑可以推演出具体情境中的职分。无论如何,在这个角色责任体系中,每个人的作为与不作为,都是被某种角色规范所引导的,并与特定的惩罚与奖赏绑定在一起。这是一个权责清晰的责任体系,可以避免责任公地悲剧和反公地悲剧,并可以有效地避免大部分道德责任空场问题,因为大部分不幸都会归结为角色责任。
结合分布式责任与个体式责任,我们就可以构想一个人工智能损害的归责程序。当患者因为人工智能的错误诊断而遭受健康损害的时候,首先的工作是排查直接责任,检查是否存在着相关能动者因为某种错误的作为而因果地导致了患者的健康损害。下一步的工作是排查角色责任,检查相关的能动者是否因为某种失职的不作为,让本可避免的损害发生了。如果既不存在直接责任,也不存在角色责任,那么最后的工作才是确定一种分布式的无过错责任,让相关的道德能动者实行一种责任分担。由此,我们就可以将医学人工智能的问责程序归纳如下:直接责任——角色责任——分布式责任。
4
结 语
医学人工智能由于数据依赖性和不可解释性,其能动性分布于不同的行动者之间,并难以预期和解释它的输出结果,这会导致一种道德责任空场问题:医学人工智能的错误诊断导致了患者的不幸,每个行动者似乎都没有明显的过错,从而也无人需要为此负责。在这样的背景下,由于商业利益和部门利益的驱动,很可能加剧医学人工智能对患者的损害,让他们彻底置于无常的运气的支配。为了实行一种负责任的创新,建造一种更加安全和公正的人工智能,有必要把个体角色责任和分布式责任体系置于医学人工智能责任体系的中心,让相关的责任人承担坏道德运气的后果。毕竟现代技术的原初目的就在于克服人类的不幸,以我们道德能力克服运气对人类的支配。无论如何,我们应该向这个目标迈进,把不幸作为一种不正义来认真对待。
参考文献(向上滑动查阅参考文献)
[1]Hamet P, Tremblay J.Artificial Intelligence in Medicine[J].Metabolism,2017,69:S36-40.
[2]王姗姗,翟晓梅.人工智能医学应用的伦理问题[J].中国医学伦理学,2019,32(8):972-976.
[3]He J,Baxter S,Xu J,et al.The Practical Implementation of Artificial Intelligence Technologies in Medicine[J].Nature Medicine,2019,25(1):30-36.
[4]Henderson M,Tierney L,Smetana G.全科医生鉴别诊断[M].刘尚勤,胡家美,译.北京:人民军医出版社,2014:29-33
[5]亿欧智库.2018中国医疗人工智能发展研究报告[EB/OL].(2018-06-16)[2020-06-01].http://www.iyiou.com/intelligence/insight74693.
[6]TaddeoM,Floridi L.How AI Can Be a Force for Good[J].Science,2018,361(6404):751-752.
[7]杨庆峰.从人工智能难题反思AI伦理原则[J].哲学分析,2020,11(2):137-150,199.
[8]夏永红,李建会.后奇点时代:人工智能会超越并取代人类吗?[J].教学与研究,2018(8):64-71.
[9]Allen C,Varner G,Zinser J.Prolegomena to any future artificial moral agent[J].Journal of experimental & theoretical artificial intelligence,2000,12(3):251-261.
[10]Sparrow R.The Turing Triage Test[J].Ethics and Information Technology,2004,6(4):203-213.
[11]宋春艳,李伦.人工智能体的自主性与责任承担[J].自然辩证法通讯,2019,41(11):95-100.
[12]Floridi L,Peng C.Faultless responsibility:on the nature and allocation of moral responsibility for distributed moral Actions[J].Philosophical transactions of the royal society A:mathematical,physical and engineering sciences,2018,374(2083):0112.
[13]亚里士多德.尼各马可伦理学[M].廖申白,译.北京:商务印书馆,2003:58-64.
[14]康德.康德著作全集:第4卷[M].李秋零,译.北京:中国人民大学出版社,2005:401.
[15]哈特.惩罚与责任[M].王勇,张志铭,方蕾,译.北京:华夏出版社,1989.
[16]白惠仁.自动驾驶汽车的“道德责任”困境[J].大连理工大学学报(社会科学版),2019,40(4):13-19.
[17]施克莱.不正义的多重面孔[M].钱一栋,译.上海:上海人民出版社,2020:4-5.
[18]Nagel T.Moral Luck[J].Proceedings of the Aristotelian Society Supplementary,1976,50:137-151.
[19]Floridi,Luciano,J.W.Sanders.On the Morality of Artificial Agents[J].Minds and Machines,2004,14(3):349-379.
[20]夏永红,李建会.符号奠基问题及其解决策略[J].哲学研究,2017(2):102-110.
夏永红,李建会.人工智能医学诊断系统的道德责任研究——以责任空场问题为中心[J].中国医学伦理学,2020,33(7):796-802.
《中国医学伦理学》杂志由中华人民共和国教育部主管、西安交通大学主办。1988年创刊,自2003年起连续18年蝉联“中国科技核心期刊”,2019年影响因子为1.584。
编辑:耿姝瑶 孙小楠
审核:吉鹏程
以上是关于人工智能医学诊断系统的道德责任研究——以责任空场问题为中心的主要内容,如果未能解决你的问题,请参考以下文章
Oracle EBS 报错:此责任无可用函数。 更改责任或与您的系统管理员联系。
任正非:华为目前处于踌躇满志阶段,如不正确对待可能崩溃(自律永远是最低成本,提高精神文明促进使命感责任感),内附华为公司结构图