中国科学院香港创新研究院人工智能与机器人创新中心(Centre for Artificial Intelligence and Robotics, CAIR)发布了一个名为“聆音”(EchoCare)的超声大模型。
用一个超过400万张图像的、目前全球已知规模最大的超声数据集,通过“自监督学习”框架,“自学成才”训练出了一个AI。
结果是,这个AI在好几项关键的诊断任务上,把之前的最高纪录都给破了。
咱们去医院,CT(计算机断层扫描)、MRI(磁共振成像)、X光这些检查,哪个检查用得最多,还得是超声CT,也就是我们常说的B超。
这东西,安全,没辐射,孕妇小孩都能用。实时,探头放上去,屏幕上立刻就有图像。便宜,做一次的价格比那些大家伙亲民多了。所以,中国的年超声检查量,在所有常规影像检查里排第一。
量大,是好事,也是麻烦事。超声检查,极度依赖操作医生的“手艺”。同一个病人,同一个部位,换个医生来做,甚至同一个医生换个心情,探头角度稍微偏一点,压力稍微大一点,出来的图像可能就是两码事。这就导致诊断结果有时候会飘忽不定,全凭医生的经验和状态。
经验丰富的老师傅,能从一堆模糊的雪花点里看出重点。刚上手的新医生,可能就不友好了。
这种“非标准化”的特点,成了超声诊断的命门,也给AI的应用带来了天大的麻烦。
过去很多年,超声AI的发展一直不温不火,根本原因就卡在这儿了。数据集规模太小,往往就几千几万张图,还都是从单一医院、单一设备上采的。用这种数据训练出来的模型,一到新环境就抓瞎,临床上根本没法用。
CAIR这次扮演了破局者的角色。他们决定从最根本的问题下手:数据。
他们搞出了一个叫EchoCareData(也叫EchoAtlas)的数据集。
这个数据集有多夸张?
4536150张超声图像。
光有数量还不行,质量和多样性更关键。这些数据来自全球5大洲、23个国家和地区、23家临床中心。采集设备用了38种不同的超声仪。覆盖的人群包括黄种人、白种人、黑种人、棕种人。人体的9大区域、52种解剖器官,基本上都全了。
研究人员把全世界的学术资源平台、数据平台、医学挑战赛网站翻了个底朝天,然后经过严格的筛选、去重和质量把控,才最终成型。
有了这套史诗级的“教材”,AI就有了见多识广的底气。它不会再因为换了台机器,或者换了个人种,就表现失常。它的“眼界”,从一开始就是世界级的。
传统的AI训练方法叫“监督学习”,就像请家教。你得找一堆专家,一张一张地给图片打标签。“这里是肝脏”,“这个是结节,良性的”,“那个是肿瘤,恶性的”。这个过程极其耗时耗力,成本高到飞起,而且专家的判断也可能存在主观差异。
对于几百万张图片来说,这条路,基本走不通。
CAIR另辟蹊径,用了一种更聪明的办法:自监督学习。让AI自己学。
怎么学?比如,把一张超声图像随机遮住一块,然后让模型去猜被遮住的部分长什么样。为了猜对,模型就必须拼命去理解图像里的上下文关系、纹理特征、器官结构。猜的次数多了,成千上万亿次之后,它自然而然就理解了超声图像的深层规律。
这就好比一个人,不用老师教他什么是猫,只要给他看足够多的、各种各样的猫的照片,哪怕照片有残缺,他自己也能总结出猫的通用特征。
CAIR更进了一步,他们首创了一个“结构化对比自监督学习框架”。这个框架更高级的地方在于,它融入了医学的先验知识。比如,AI在学习的时候,就被告知“心尖两腔心”是“心脏”的一部分,而“心脏”又在“胸部”。这种层次化的结构,就像给AI脑子里装了一幅解剖学地图。
同时,他们还在模型里加入了一个“分层分类器”分支。这个分支的任务,就是预测被遮挡区域的解剖学类别。这样一来,模型在预训练的时候,不仅要学习像素长什么样(局部细节),还要学习这块区域在整个解剖结构里处于什么位置(全局认知)。
这套组合拳打下来,模型就学会了像一个真正的医生那样去思考,而不是一个只会识别像素的机器。
CAIR团队带着EchoCare,分别和山东大学齐鲁医院、中南大学湘雅医院、香港中文大学医学院进行了合作,开展了临床回溯性验证。
在山东大学齐鲁医院,他们分析了1556例卵巢超声病例。卵巢肿瘤的良恶性判断,是妇科超声诊断里的一大难点。结果显示,EchoCare的灵敏度达到了85.6%,特异度为88.7%。其中,灵敏度这个指标,比现有的顶尖方法提升了整整8个百分点。这意味着,它能更有效地发现恶性肿瘤,减少漏诊。
齐鲁医院超声科的陶国伟主任评价说,这技术能有效弥补医生之间的经验差异,提升诊断的一致性。
在中南大学湘雅医院,战场换到了甲状腺。他们用1000多个病例对模型进行了测试。在甲状腺结节检测上,EchoCare的平均精度为88.8%,比之前的方法高出5%。在结节良恶性分类上,灵敏度高达90.5%,特异度达到94.1%。
湘雅医院的常实主任指出,这个AI系统可以减少人为差异,提高效率,为早期诊断和个体化治疗提供可靠支持。
在香港中文大学医学院,黄鸿亮教授则展示了EchoCare在心脏超声主动脉瘤检测上的应用。在发布会现场,他直接导入了两段超声视频,模型迅速就捕捉到了关键医学信息,识别出了异常病例,并且自动生成了超声报告。
在器官分割、分类、检测、回归、增强等七大类医学任务和十多项下游应用中,EchoCare的表现都达到了当前最优,性能平均比现有SOTA(State-of-the-Art,当前最高水平)方法高出3%到5%。
CAIR做出了一个决定:把EchoCare的模型、代码和那个史诗级的数据集,全部公开发布。
全球的超声AI研究者,都可以站在这位巨人的肩膀上,继续向上攀登。这无疑会极大地推动整个领域的发展。
CAIR主任刘宏斌研究员说,开发大模型的目的,是让超声设备用起来更简单,提升诊断水平,最终让医生这个职业,变成一个纯粹的脑力工作者,而不是一个既要动脑又要拼体力的劳动者。
光有聪明的“大脑”还不够,CAIR还有灵活的“双手”。
他们自主研发了一款名为“超声助手”(Ultrasound Copilot)的具身智能超声机器人。这个机器人能听懂语音指令,能通过视觉和触觉感知环境,还能自己规划探头怎么走位,以获得最佳的成像切面。
当EchoCare这个AI大脑,与超声机器人这双巧手结合,一幅未来医院的图景就清晰地展现在我们面前:病人躺下,机器人自动完成标准化的全身超声扫描,AI实时分析图像,生成诊断报告,然后交给医生做最终的决策。
这不仅能把医生从繁重的重复性劳动中解放出来,更能让优质的超声诊断服务,跨越地域和经验的鸿沟,抵达每一个需要它的角落。
所以,EchoCare的发布,可能不仅仅是一个模型的诞生,更是一个时代的开始。
当AI学会了老师傅几十年的手艺,你看病还会只盯着专家号吗?
参考资料:
https://www.cair-cas.org.hk/article/535
https://github.com/CAIR-HKISI/EchoCare
https://arxiv.org/abs/2509.11752
免责声明:本文来自算泥客户端,不代表超天才网的观点和立场。文章及图片来源网络,版权归作者所有,如有投诉请联系删除。