资讯 医疗AI
此为临时链接,仅用于文章预览,将在时失效

FDA召开公开会议,着重讨论医疗AI的数据多样性及算法偏见问题

作者:李雨晨
2020/10/24 11:49

FDA召开公开会议,着重讨论医疗AI的数据多样性及算法偏见问题

雷锋网消息,据外媒HealthcareItNews报道,美国时间周四,FDA召集患者参与咨询委员会(Patient Engagement Advisory Committee)进行了一场公开会议,讨论医疗设备中人工智能和机器学习方面的问题。

据雷锋网了解,2015年9月,主管医疗器械的FDA设备和放射健康中心成立了首个患者参与咨询委员会,以确保在医疗设备的审评中反映患者需求。

PEAC主席、美国肾脏患者协会政策和全球事务主席Paul Conway博士说:“使用AI和机器学习技术的设备将通过提高患者治疗关键过程的效率来改变医疗服务。”

此外,Conway和其他人在小组讨论中也指出,人工智能和机器学习系统可能存在算法偏见和缺乏透明度——反过来,这可能会削弱患者对设备的信任。

为了应对新冠疫情,医疗设备的创新速度不断加快。设备和放射健康中心主任Jeff Shuren博士指出,已经有562款医疗设备获得了FDA的紧急使用授权。

Shuren说,患者的需求必须作为研发过程的一部分来考虑。

“我们继续鼓励医疗系统的所有成员努力理解患者的观点,并积极主动地将他们纳入医疗设备的开发、修改和评估中。患者是我们工作的灵感来源,尽管新冠疫情这一突发的公卫事件给全球带来了挑战。但是患者的呼声不会停止。如果说有什么不同的话,那就是更有理由让人们听到它。”

然而,飞利浦全球软件标准监管主管Pat Baird表示,获得患者信任还意味着,要正视稳定和准确的数据集的重要性。

Baird表示,“为了帮助患者,我们需要更加熟悉他们,了解他们的医疗条件、需求和愿望,更好地了解那些潜在的因素,这些因素往往在收集的数据中潜藏着一些趋势。”

Baird解释说:“在一个子集上训练的算法可能与另一个子集不相关。”

例如,如果一家医院需要为佛罗里达州退休社区的老年人提供医疗设备,一种识别缅因州青少年医疗需求的训练算法就不会有效——换言之,不是每个人都有同样的需求。

“数据中的这种偏差不是故意的,但是很难识别,”因此,Baird鼓励对偏见类型进行分类,并向公众公开,“偏差带来的后果,就是失去患者的信任。我们需要集思广益,开发出更好的人工智能产品。”

CDRH的首席医务官兼妇女健康主任Terri Cornelison上尉指出,人口统计鉴定在医学上具有重要意义,这是因为,人口统计包含了遗传和健康的社会决定因素等。

Cornelison说到,“科学告诉我们,这些不仅是明确的鉴别指标,而且实际上与临床相关。”

她指出,一项不识别患者性别的临床研究可能会掩盖不同染色体人群的差异化结果。在许多情况下,如果现有的训练数据不能代表不同类型的患者,那么AI就会学的越来越“窄”。

“更简单地说,如果数据不包括你,AI算法可能就不能代表你。AI正在改变我们的卫生系统和日常生活。尽管取得了这些重大成就,但是,大多数人都忽视了性别、年龄等因素对健康和疾病差异的影响。”

委员会还研究了“知情同意”如何在算法训练中发挥作用。 

“如果我同意接受AI设备的治疗,我就有权知道数据集里是否有像我这样的病人……”健康沟通顾问Bennet Dunlap说,“我认为FDA不应该接受或批准一种没有病人参与的医疗设备。”

“你需要知道你的数据将被用于什么。我是白人,我可以假设年长的白人包含(数据集)中。这是每个人的出发点,但情况往往不是这样。”

埃默里大学Goizueta阿尔茨海默病研究中心Dr. Monica Parker指出,让患者数据多样化,需要社区内可信实体的帮助。“如果人们为了更广泛的多样化而开发这些设备,那么这些设备是在哪里进行测试的,这是不是存在一些问题呢?”

她提出了在美国东、西海岸的学术医疗中心或技术中心进行测试的问题,而不是“从医院收集真实世界的数据,因为这些医院可能在疾病过程中使用一些不同的设备。”

Faces and Voices Recovery的运营总监Philip Rutherford也补充到,在数据集中区分多样性是不够的,负责训练算法的人也必须不是同质的。“如果希望数据多样化,我们就必须让收集数据的人也多样化。”

因此,患者参与咨询委员会呼吁,FDA在解决人工智能和机器学习中的算法偏见方面发挥强有力的作用。

Conway在最后总结说,“归根结底,多样性验证和无意识的偏见……如果从一开始就有强有力的领导,所有这些问题都可以得到解决。”雷锋网

长按图片保存图片,分享给好友或朋友圈

FDA召开公开会议,着重讨论医疗AI的数据多样性及算法偏见问题

扫码查看文章

正在生成分享图...

取消
相关文章