牛津大学研究团队最近推出了一款名为 MedSAM-2 的人工智能模型,有望彻底改变分析医学影像的方式。该模型在 2D 和 3D 医学图像分割方面取得了医生的显着突破。
MedSAM-2基于Meta公司最新发布的Segment Anything Model 2 (SAM 2)模型,创新性重构医学图像序列被视为序列视频进行处理。研究表明,MedSAM-2在分割各种器官和组织的2D和3D图像时,性能超越了现有最先进的模型。
该模型的一大特色是“单点提示分割”功能。只需在一张示例图像上进行一次标注,模型就能识别并分割其他图像中的相似结构,极大地增强了大部分人员的工作负担。 研究人员在15个不同的医学数据集中测试了MedSAM-2,包括腹部器官、视神经、脑肿瘤和皮肤病变等扫描图像。几乎在所有情况下,新模型都取得了比专门的前代模型更好的结果。
在3D图像的腹部器官分割任务中,MedSAM-2的平均Dice得分达到88.6%,比阿联酋的最佳模型MedSegDiff高出0.7个分数。在2D图像分割任务中,MedSAM-2同样表现出色,在视神经、脑肿瘤和前列腺结节的分割上分别提高了2、1.6和2.8个百分点。
MedSAM-2 的开发人员认为,该模型是改进医学图像分析的重要一步。为了鼓励进一步发展和在临床实践中的应用,他们已在 GitHub 上发布了模型和代码。 这项研究成果有望为医疗影像分析带来革命性的变化,提高诊断效率和准确性,为患者提供更好的医疗服务。
|