中国基因网您的位置:首页 >医学 >

针对药物设计的政策不适用于人工智能

在许多方面,英国政府上个月推出的医疗保健人工智能(AI)系统的新行为准则是​​及时和必要的。卫生和社会关怀部制定的原则旨在保护患者数据并“确保只使用最好,最安全的数据驱动技术”(参见go.nature.com/2gqri5g)。该代码涵盖的项目包括由支持Alphabet的AI公司DeepMind所做的努力,该公司一直与伦敦的Moorfields眼科医院合作,通过一百多万次眼部扫描来设计一种可以检测黄斑变性的算法,以及Ultromics和英国牛津的John Radcliffe医院正在使用AI来改善心脏病和肺癌的早期检测。

针对药物设计的政策不适用于人工智能

然而,我担心可能成为全球基准的准则预示着大量的政策不足以规范人工智能。该准则揭示了人工智能如何改变医疗保健,社区和社会的缺乏认识,而是坚持医疗干预对个人隐私,安全和功效的影响的传统评估。

人工智能的影响更类似于汽车或个人电脑,而不是医药。向患者开处药物,其用途与个人需求相关。但汽车已经塑造了我们所有的生活,城市和工业 - 甚至对于那些不开车的人来说也是如此。围绕创新和技术的政策在很大程度上忽视了科技公司不平等恶化的可能性,即使这些例子越来越多。纽约州立大学奥尔巴尼分校的政治学家Virginia Eubanks创造了“数字贫民窟”这一短语来描述人工智能和自动化对低收入家庭和社区的影响。例如,加利福尼亚州洛杉矶市使用一项计划将无家可归者与适当的住房相匹配; 为了获得庇护,鼓励个人说出自己的名字,他们是否与陌生人进行过无保护的性行为或者是否认为是自我伤害,以及他们多久经常接受性侵犯或家庭虐待的危机服务。中产阶级社区不会容忍这种程度的入侵。当这些数据由警察和公共服务部门协调时,不公平的可能性在很多方面都会膨胀。

我在伦敦大学学院学习科学与社会之间的关系,我在伦敦艾伦图灵研究所考虑数据伦理和医疗保健AI。扩大不平等的风险并不是一个无法控制的规则的副作用; 它嵌入在技术本身中。例如,大多数数字公司通过生产和销售商品而没有巨大的制造和分销成本而获得成功。这提高了高技能工人的工资,同时减少了对他人的需求和条件。

我们已经可以收集技术如何改变医疗保健系统。2017年底,伦敦的Babylon Health推出了一款智能手机应用程序,可以提供医生咨询。皇家全科医师学院批评巴比伦“选择樱桃病患者,让传统的全科医生服务处理最复杂的病人,而没有足够的资源去做”。波士顿马萨诸塞州综合医院的放射肿瘤学家Anthony Zietman描述了质子束治疗的成本如何扭曲美国医疗保健市场并从其他领域引导资金,如传统放射治疗。我在伦敦国王学院的同事发现,对外科手术机器人的投资从其他治疗中获取资金,并在大型教学医院集中治疗,要求许多患者长途跋涉或放弃护理。

公众理解技术的利弊经常是密不可分的,评估技术意味着决定利益是否超过缺点,这样做取决于两者的分配方式。十多年来,我一直在使用焦点小组和参与式练习来衡量公众舆论 - 从干细胞到纳米科学这一主题 - 我已经看到了从个人到社会在多个互动尺度上如何感受到效果的复杂评估。人们担心技术将创造的世界,而不仅仅是对个人的伤害。我们的政策必须表现出类似的复杂性。

对我来说,英国的代码错失了机会,正确地开展工作,预测更广泛,不可避免的问题,并保持卫生系统的可负担性和有效性。正是由于全面的国家卫生服务,英国拥有超过七十年的数据 - 这对于开发医疗保健的人工智能至关重要。但这些相同的数据也警告说,社会不平等通过增加压力对所有人的身心健康产生不利影响,并且记录了贫困对大脑和身体的生物学影响。

技术可以改善医疗保健,加快诊断并降低成本。但要实现这一潜力,我们需要扩大我们评估它们的镜头,并且很快。

这不简单。随着汽车的出现,将出现许多严重的影响,并且由声音最弱的社区承担最严重的影响。我们需要将我们的目光从个人转移到系统再到社区,然后再回来。我们必须汇集各种专业知识,包括工人和公民,以制定卫生系统可用于预测和解决问题的框架。该框架需要明确授权,以考虑和预测AI的社会后果 - 并密切关注其影响。这是确保卫生技术满足所有人需求的最佳方式,而不仅仅是硅谷的需求。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。

推荐内容