医学中的人工智能提高了法律和道德问题
在医学中使用人工智能(AI)正在产生巨大的兴奋,并希望治疗进展。
AI通常是指计算机模仿人类智能和学习的能力。例如,通过使用机器学习,科学家正在努力开发算法,帮助他们做出关于癌症治疗的决定。他们希望计算机能够分析放射性图像并辨别癌症肿瘤对化疗良好,这将不会。
但是医学中的AI也提出了重大的法律和道德挑战。其中一些是对隐私,歧视,心理危害和医生患者关系的担忧。在即将到来的文章中,我认为政策制定者应该建立一些关于AI的保障措施,就像遗传测试变得普遍的那样。
歧视潜力
AI涉及对辨别模式的非常大量的数据分析,然后用于预测未来出现的可能性。在医学中,数据集可以来自电子健康记录和健康保险索赔,而且来自几个令人惊讶的来源。AI可以借鉴购买记录,收入数据,犯罪记录甚至社交媒体,以获取有关辛勤健康的信息。
研究人员已经使用AI预测众多的医疗状况。这些包括心脏病,中风,糖尿病,认知下降,未来阿片类药滥用甚至自杀。作为一个示例,Facebook采用了一种算法,它基于与“你没事的短语的帖子的帖子自杀预测,这与“再见”和“请不要这样做。”
AI的这种预测能力引发了医疗保健中的重大伦理问题。如果AI产生关于您的健康的预测,我认为信息可以将有一天包含在您的电子健康记录中。
任何有权访问您的健康记录的人都可以看到关于认知下降或阿片类药物滥用的预测。在医疗过程中,几十个甚至数百名临床医生和管理员看到了患者的病程。此外,患者自己经常授权其他人访问他们的记录:例如,当他们申请就业或人寿保险时。
lexisnexis和acxiom等数据经纪人行业巨头也是挖掘个人数据并从事AI活动。然后,他们可以向任何感兴趣的第三方出售医疗预测,包括营销人员,雇主,贷方,生活保险公司和其他人。由于这些企业不是医疗保健提供者或保险公司,因此HIPAA隐私规则不适用于他们。因此,他们不必要求患者允许获得其信息并可以自由披露它。
这些披露可能导致歧视。例如,雇主对将健康和富有成效的工人感兴趣,缺少和低医疗费用。如果他们认为某些申请人将来会发育疾病,他们可能会拒绝他们。贷方,房东,生活保险公司和其他人可能同样基于AI预测的杀戮的不利决定。
缺乏保护
残疾人法案的美国人不会根据未来的医学问题禁止歧视。它只适用于当前和过去的疾病。为了应对遗传检验,国会颁布了遗传信息无耻行为。本法禁止雇主和卫生保险公司考虑基于有关人民未来健康状况的相关假设的遗传信息和做出决定。没有法律对环境预测数据相似禁止。
AI Health预测也会导致心理伤害。例如,如果他们得知他们可能会在生活中稍后可能会遭受认知衰退,因此许多人可能会受到创伤。甚至可能习惯性将直接从购买数据的商业实体中获得健康预测。想象一下,通过电子广告促使您购买记忆增强产品的电子广告,您获得了痴呆岛风险的消息。
涉及遗传测试时,建议患者寻求遗传咨询,以便他们可以仔细决定是否被测试,更好地理解测试结果。相比之下,我们没有AI辅导员为患者提供类似的服务。
另一种担忧涉及医生关系。Ai会削弱医生的作用吗?计算机是否会成为制作预测,诊断和治疗建议的计算机,使医生只是实施计算机的指示?如果计算机在制作医疗决定方面有更大的发言权,患者将如何感受到他们的医生?
这些担忧因AI预测远非无缺乏而加剧。许多因素可以促成错误。如果用于开发算法的数据缺陷 - 例如,如果它们使用包含错误的医疗记录 - 算法的输出将不正确。因此,当实际上,患者可能遭受歧视或心理伤害。
谨慎呼叫
可以做些什么来保护美国公众?我在过去的工作中争论了HIPAA隐私规则的扩展,以便它涵盖了处理健康信息的人以获得商业目的。隐私保护不仅适用于医疗保健提供者和保险公司,也适用于商业企业。我还认为,国会应根据未来疾病预测,修改美国人禁止歧视。
为AI预测提供患者的医生应确保他们彻底了解此类预测的利弊。专家应该为AI患者提供咨询患者,就像训练有素的专业人员那样了解基因检测。
AI的前景可以过度敬畏的人。然而,为了确保AI真正促进患者福利,医生,研究人员和政策制定者必须承认其风险并谨慎行事。