非营利非商业性健康信息的可信来源
美国抗衰老、预防和再生医学学会的原始声音
标志 标志
计算机与医学 人工智能 医疗保健 医疗保健和信息

医疗保健研究人员必须警惕滥用人工智能

四个月,四个星期前

4318 0
发布于2022年9月14日凌晨2点

一个国际研究团队在该杂志上写道自然医学他建议,需要特别注意不要在医疗保健研究中滥用或过度使用机器学习(ML)。

“我绝对相信ML的力量,但它必须是一个相关的补充,”这篇评论的第一作者、来自荷兰伊拉斯谟MC大学医学中心的神经外科医生和统计编辑维克多·沃洛维奇博士说。“有时ML算法的表现并不比传统的统计方法更好,导致论文发表缺乏临床或科学价值。”

现实世界的例子表明,在医疗保健领域滥用算法可能会延续人类的偏见,或者在机器接受有偏见的数据集训练时无意中造成伤害。

“许多人认为机器学习将彻底改变医疗保健,因为机器做出的选择比人类更客观。但如果没有适当的监督,ML模型可能弊大于利,”该评论的高级作者、来自新加坡杜克-新加坡国立大学医学院定量医学和卫生服务与系统研究项目中心的副教授Nan Liu说。

“如果通过ML,我们发现了我们在其他情况下看不到的模式——比如在放射学和病理学图像中——我们应该能够解释算法是如何做到这一点的,从而实现制衡。”

与来自英国和新加坡的一组科学家一起,研究人员强调,尽管已经制定了规范ML在临床研究中的使用的指南,但这些指南仅在决定使用ML时适用,而不是首先询问是否或何时使用ML是合适的。

例如,一些公司已经成功地训练ML算法使用数十亿张图像和视频识别人脸和道路物体。但当涉及到它们在医疗保健环境中的使用时,它们通常会接受数十、数百或数千个数据的培训。研究人员写道:“这凸显了医疗保健大数据的相对贫困,以及努力实现其他行业已达到的样本量的重要性,以及协调一致的国际大数据共享健康数据的重要性。”

另一个问题是,大多数ML和深度学习算法(没有收到关于结果的明确指令)通常仍然被视为一个“黑匣子”。例如,在COVID-19大流行开始时,科学家们发布了一种算法,可以从肺部照片预测冠状病毒感染。后来发现,算法是根据照片中字母“R”(代表“右肺”)的印记得出结论的,这些字母总是在扫描图像上的一个略微不同的位置被发现。

“我们必须摆脱ML可以发现我们无法理解的数据模式的想法,”沃罗维奇博士谈到这一事件时说。“ML可以很好地发现我们不能直接看到的模式,但你必须能够解释你是如何得出这个结论的。为了做到这一点,算法必须能够显示它采取了哪些步骤,这就需要创新。”

研究人员建议,ML算法在用于临床研究之前,应该与传统的统计方法(如果适用)进行评估。在适当的时候,他们应该补充临床医生的决策,而不是取代它。研究人员写道:“ML研究人员应该认识到他们的算法和模型的局限性,以防止它们的过度使用和滥用,否则可能会播下不信任的种子,并造成患者伤害。”

该团队正在组织一项国际努力,为ML和传统统计学的使用提供指导,并建立一个可以利用ML算法的强大功能的大型匿名临床数据数据库。

就像你在网上读到的任何东西一样,这篇文章不应该被理解为医学建议;在改变你的健康习惯之前,请咨询你的医生或初级保健提供者。

内容可以根据风格和长度进行编辑。

提供的资料:

https://www.duke-nus.edu.sg/allnews/media-releases/healthcare-researchers-must-be-wary-of-misusing

https://www.duke-nus.edu.sg/

http://dx.doi.org/10.1038/s41591-022-01961-6

世界卫生视频

Baidu