医学人工智能引发的相关伦理问题分析

2020-01-13 20:41余艳琴徐慧芳郝金奇乔友林
中国医学科学院学报 2020年1期
关键词:伦理医学医疗

余艳琴,徐慧芳,郝金奇,乔友林

1中国医学科学院 北京协和医学院 肿瘤医院流行病学室 国家癌症中心 国家肿瘤临床医学研究中心,北京 100021 2包头医学院公共卫生学院,内蒙古包头市 014010

人工智能(artificial intelligence,AI)已经成为我们这个时代的战略性前沿领域和核心技术标志,影响到国家安全、经济发展、医疗健康和民权利益等领域,甚至可左右社交媒体导向。目前有包括中国在内至少18个国家启动了“AI战略计划”或发展规划。2019年2月,美国总统特朗普签署了一项行政命令,正式启动“美国AI计划”,内容包括研发、基础设施、监管、人力资源以及国际合作领域等5大核心支柱领域或技术应用范围。AI的应用范围已经越来越广,尤其是在医学领域,例如:利用AI测算危及生命症状的发作;AI虚拟助手辅助患者遵守限制性饮食;预测患者可能住院时间以及再入院风险程序等。在成像技术方面,AI技术开发人员已证实基于即时交叉引用大量信息的能力,在疾病检测或排除疾病方面,AI已经超越了人类的能力。可见,医学AI在加速医学领域的科学发现及改变医疗卫生方面有着惊人的潜力,它改变了旧有的医疗格局,建立了全新的医疗决策系统,该系统以新的辅助诊断治疗系统为基础,为患者提供辅助诊断并为临床医师提供治疗方案和最佳证据。虽然医学AI技术仍不能应用于治疗目前无法治愈的疾病,仅能辅助诊断治疗系统协助医生诊断和治疗疾病,但医学AI已经达到一个成熟技术的转折点,在医疗领域应用越来越切实可行。然而,与人类医生相比,在疾病诊断治疗方面,医学AI尚有诸多弱势,比如,在诊疗过程中难以顾及患者的感受等社会人文因素;医学AI引发患者的隐私和安全性等一系列伦理问题。当然,医学AI的伦理问题并不是新问题,而是AI引发的一系列老问题的叠加。它会挑战我们以往的经验,却不会引起颠覆性的毁灭。就目前而言,医学AI伦理不完全等同于AI伦理,存在一定特殊性。AI伦理的研究大多数从技术层面和人文层面研究AI与人类智能方面的伦理,而对于医学AI的伦理研究还远远不够系统与深入,本文分析了医学AI引发的相关伦理问题。

医学AI的定义

医学AI是AI发展出来的一个分支,用于为医学诊疗问题提供解决方案。医学AI技术有专家系统、人工神经网络和数据深度挖掘3大主要分支,其中在医疗领域所起作用最大、最活跃、成果最显著的一个研究领域是医学专家系统。医学专家系统是把医学相关内容输入微机系统,随后系统模仿临床诊疗思维以及患者病情状态,在知识库内选择符合的诊断线索并制定治疗计划,可以作为医生诊断的辅助工具,帮助医生解决复杂的医学问题。目前医疗工作人员已经开始使用人工神经网络、模糊专家系统计算方法、机器学习以及混合智能系统等来处理大量的数据和知识,帮助临床诊断更加准确,并提供更有效的治疗方案。

医学AI相关伦理问题

医学AI的数据获取医学AI诊疗能力的高低取决于其机器所学习的医疗教材和医疗案例的质量与数量,如何获取高质量的医疗教材和案例是AI医疗面临的最大难题。若采集的医疗数据存在偏差,则会使AI系统出现相应偏差,导致AI系统所做出的决策可能比人为偏见和不公隐晦更大的差别效应。就目前而言,医学AI由于缺乏知识和经验会出现误诊的可能性[1]。为获得最佳的临床诊断效果同时提高医生诊断的一致性,医学AI技术仅作为辅助工具融入到临床诊断工作中去,最终还需要医生自己结合专业知识做出诊断决策,因此医生要客观看待AI辅助诊断的结果。可见,高质量医疗大数据对于医学AI的发展至关重要。

医学AI的公平性医学AI医疗系统在医务过程中,利用电子病历与之相关的健康数据并通过分子生物学检测得到的基因组学、蛋白质组学等实验数据,采用聚类分析方法帮助医生判断、识别并将疾病与最佳疗法相匹配[2]。但是,由于现有医疗条件、技术设备等医疗资源存在不平衡问题及社会贫富差距的存在,只有少部分人才可能获得先进的诊断和治疗技术,可见医学AI是少众群体的先进医疗手段,因此其存在两面性:一方面可以引起医疗状况不公平性等有关社会问题;另一方面可以帮助医生提高诊疗水平,尤其是可以辅助基层医生诊断疾病,从而让预防保障体系的“神经末梢”正常运转起来。因此,如何实现医学AI的“普及化和大众化”,成为普通大众的基本医疗手段,消除医学AI的不足具有重要意义。

医学AI的安全性医学AI的安全性是指医学AI在近期、远期应用过程中出现或引发一系列可能的相关伦理问题,其中,近期安全风险是指在目前现有技术水平下所出现的不可预知的风险问题。例如:外科医师所用的基于机械驱动的手术机器人,具有手术过程无差错、准确等优点,但在远程诊疗过程中,机械的远程操控是否会特别精准,手术时病菌的隔离和控制以及有无有害物质感染等问题,都是值得深思并无法预知的问题。此外,医学AI在医疗健康数据的收集、分析等过程中可能会将大量看似无关的数据或信息整合在一起,获得个人的“显性”信息,如一个人的性格特征、生活和行为方式等,和“隐性”信息,如身体缺陷、犯罪前科等。一旦AI系统掌握的信息泄露或被非法使用,不仅会引起个人恐慌,还可能导致社会不稳定等严重后果。相比于人类医生而言,这种AI医疗对患者隐私问题似乎考虑得并没有那么周全。因此,医学AI在数据收集、训练模型等过程中,每个行业都应该高度重视保护患者隐私。1996年,美国颁布的《健康保险携带和责任法案》要求各机构必须采取适当措施保护患者信息的私密性,以及个人医疗信息的使用必须限定在实施治疗所必需的最小范围内。为了保护医疗对象的隐私权,应当重视新技术新业务领域的个人信息保护问题,从法律层面上明确个人对其信息享有的基本权利,规范企业收集和使用个人信息的行为。因此,目前医学AI亟需制定一系列安全标准和相应的法律、法规,以保护患者的隐私在任何环节都不能被泄露,诸如涉及到访问、传送和存储受保护患者信息的人员、机构都应有相应的规范。远期的安全风险是指假设未来AI发展到超级智能阶段,AI系统能够自我演化,并可能发展出类人的自我意识,从而对人类的主导性甚至存续造成威胁。若AI技术不加约束的开发,会让机器获得超越人类智力水平的智能,引发一些难以控制的安全隐患。尽管人们还不清楚医学AI远期安全性是否会到来,但如果在还没有完全做好应对措施之前出现技术突破,安全威胁就有可能爆发,人们应提前考虑到可能的风险。

医学AI不良后果的责任界定医学AI辅助诊疗系统具有大量减少医生读片时间、提升工作效率、降低误诊率等优点。而未来医学AI在医疗行业的发展前景良好,不仅可对疾病进行诊断并提供治疗方案,还能从宏观与微观、分子水平提出个体化精准防治方案。然而随之而来也可能会出现一系列伦理问题,例如:用于诊断的专家系统出现失误后导致的医疗事故将是谁的责任?医学人工智能机器人制作大规模的生化武器、传播疾病及选择性杀害人类的能力,将给我们的人身安全与自由构成极大威胁,这到底是机器人的责任还是人类自己的责任?以及这些机器人的开发者、使用者是否要负担相应的责任,且分别应负什么样的责任等,诸如此类的伦理问题[3]。未来医学AI机器人发展成为会“思维”的机器,机器思维完全有可能超过人类的思维能力,不仅在存储(记忆)、运算、传输等方面超过人脑,而且在想象力、创造力、控制力以及情感的丰富度等方面也超过人时,它就会对人的思维本质构成实质性的挑战。因此,医学AI技术引发的伦理问题不可小觑,为了人类的长远发展,应给予其相应的关注并进一步深思和探讨。

医学AI的公众接受度在诊疗中大众是愿意接受有情感、有思想、能交流的医务人员还是与之相反的机器人,值得我们进一步深思。试想一下若是我们自己在诊疗中,诸如手术、康复等希望寻找“同类”还是“异类”的机器人?是希望面对有情感、有思想的人类医师,还是愿意把自己的安全交给冰冷而且不会思考的机器呢?此外,医疗AI辅助诊断是否会改变医务人员与患者之间的关系也需要考虑。例如AI医生通过AI远程医疗方式进行诊断,在患者身上实施专家手术,是否会导致医患之间产生心理上的隔阂。可见,虽然医学AI辅助诊断系统能够帮助医生诊断诸多疾病,但它只是在诊疗过程中帮助医生快速判断并提供建议,因为疾病的诊疗过程不能单纯依赖技术环节,还需要社会人文因素等共同完成。正如Airdoc对自己的定位就是AI时代医生的辅助工具,最终诊断决策需医生自己做出。医生诊疗患者已经几千年,不会因为一两个技术出现而变化[4]。

医学AI引发问题的监管建议目前对于医学AI的使用监管,较美国、英国、澳大利亚等发达国家而言,我国法规还有一些差距需进一步完善。监管的目的不仅是保证医学AI发挥其最大优势,还要保证患者安全、隐私不外泄。由于医学AI是基于医疗大数据的驱动,通过机器学习,将患者病历和案例进行分析,给出诊疗方案,因此其过程中存在很多不确定性和复杂性,致使我们对AI的审查、预测与监管难以实施[5]。这也是许多知名专家如乔纳森和米西卡明斯所担忧的,医学AI的安全性和伦理道德监管是一个大问题。虽然2016年9月,脸书、谷歌以及亚马逊专门成立了AI监督联盟,旨在开发解决AI相关的安全隐私问题。但是对于公众而言,这种措施似乎没有实质性用途,急需一些专家和企业为大众解开AI技术的面纱,否则由此引发的民众恐惧感不会有明显下降。而且,在AI监管方面,目前还缺少相应的法律。针对以上医学AI所面临的伦理问题,笔者就我国医学AI在研发、应用过程中所面临的伦理问题,提出以下几方面监管建议。

研发阶段:首先是选择研究人群方面存在伦理学歧视问题,主要体现为插入“隐形”过滤器,即受种族、肤色、经济状况、性别及年龄等方面的影响,而忽略或忽视其他种族研究,此外还需要注意特殊工种人群,因此AI在选择人群方面应当考虑人群的代表性和数量。就目前我国现有形式来看,我们应该从不同地区、民族、性别以及年龄中选取足够数量、有代表性的人群来建立标准化医疗健康大数据。其次是所面临的数据质量问题,主要集中于数据的质、量以及数据的标准3个方面,其中,数据质量是关键,医学AI诊疗能力的高低取决于良好的数据质量。目前我国寻找高质量、足够数量以及具有良好诊断标准的数据尚存在一定难度,但国家已经投入大量的人力、物力资本建立标准化的医疗健康大数据,未来中国医学AI前景不可估量。

实际应用阶段:医学AI辅助诊断可以提高医师诊断的准确率和效率,增强医院的竞争力,但其带来的不公平性、安全性以及数据保护和隐私安全等问题也需要重视。因此在国家层面上应当通过建立医学AI为医疗条件落后地区和弱势群体提供可靠的医疗辅助诊断,解决当前面临的医疗资源不公平和医患矛盾等问题。并进一步建立或出台一系列官方指导意见、法律及法规,规范和保护医学AI的数据和隐私安全等问题。

医学AI的责任认定:主要集中在医学AI的制作者和应用者这两个方面。医学AI的制作必须是客观、公正、基于大量无偏性临床数据进行的逻辑算法而构建,倘若医学AI制作者在制作过程中加入“隐形”因素,机器学习算法就会基于坏数据或缺乏多样性的数据,得出不准确或带有偏见的结论,则由此引发的风险应当由制作者承担。若制作者不存在技术问题(经过安全性和准确性评估后),而是在使用过程中出现的责任问题,应当由使用者承担。

医学AI的监管:首先要明确监管哪些内容、采取何种方式、是否有可以参考的标准和依据,以及是否具有相关的法律和法规。针对目前医学AI辅助诊断仪器等在医学领域的应用,医学AI的监管应主要集中在安全性评价和上市后评价两个方面。安全性评价主要指医学AI研发的新技术必须按照国家相关法规和政策进行评价与验收。医学AI研发的技术必须进行规范化、标准化的程序,用数据来科学证明新产品对患者是安全和有效的,同时必须经过 “多中心”不断验证与修改医学AI的新技术,已达到临床诊断要求的“样本量”来验证数据的科学性与规范性。上市后评价是指医学AI研发的技术上市后还需要收集大数据,进一步评价医学AI的安全性、实用性及有效性等,目的在于规避潜在的风险以减少不良反应的发生。

总之,目前AI尚处于“弱AI”阶段。从临床应用来看,虽然医学AI发展迅速,但是真正推广应用到临床诊疗中的项目数量有限,距离全面融入临床医师日常工作、切实缩小不同地区间医疗水平差距等目标尚有很长的路要走。医务工作者应清楚地认识到,医学AI尚无法取代医务人员,其提供的诊断仅具参考价值,不能作为最后的诊断,还需要医务工作者结合实际临床表现来得出。

猜你喜欢
伦理医学医疗
《心之死》的趣味与伦理焦虑
《现代仪器与医疗》2022年征订回执
《现代仪器与医疗》2022年征订回执
本刊可直接使用的医学缩略语(二)
灵长类生物医学前沿探索中的伦理思考
新型医疗废弃物焚化舱
医学的进步
预防新型冠状病毒, 你必须知道的事
护生眼中的伦理修养
伦理批评与文学伦理学