网站首页 > 技术文章 正文
视觉转换器能够更有效地对远程上下文进行建模,在包括分割在内的多个计算机视觉和医学图像分析任务中显示出令人印象深刻的准确度提升。然而,这种方法需要大量的标记数据集进行训练,这对于医学图像分析来说很难获得。自监督学习 (SSL) 已证明使用卷积网络在医学图像分割中取得了成功。在这项工作中,我们开发了一种 \underline{s}elf-distillation learning,使用 \underline{m}asked\underline{i} 图像建模方法来执行 SSL for vision\underline{t}transformers (SMIT) 应用于 3D 多器官CT和MRI的分割。我们的贡献是在被称为掩码图像预测的掩码补丁中进行密集的像素级回归,我们将其与掩码补丁令牌蒸馏相结合作为预训练视觉转换器的借口任务。我们展示了我们的方法比其他借口任务更准确,并且需要更少的微调数据集。与以前的医学图像方法(通常使用来自疾病部位的图像集和与目标任务相对应的成像模式)不同,我们使用来自头颈癌、肺癌和肾癌以及 COVID-19 的 3,643 次 CT 扫描(602,708 幅图像)进行预训练并将其应用于 MRI 胰腺癌患者的腹部器官分割以及公开可用的 13 种不同的 CT 腹部器官分割。我们的方法显示出明显的准确性提高(MRI 的平均 DSC 为 0.875,CT 的平均 DSC 为 0.878),同时减少了对常用借口任务微调数据集的要求。对多种当前 SSL 方法进行了广泛的比较。代码将在接受发布后提供。
《Self-supervised 3D anatomy segmentation using self-distilled masked image transformer (SMIT)》
论文地址:http://arxiv.org/abs/2205.10342v1
猜你喜欢
- 2024-09-29 CeiT:商汤提出结合CNN优势的高效ViT模型 | 2021 arxiv
- 2024-09-29 豪取4个SOTA,谷歌魔改Transformer登NeurIPS 2021
- 2024-09-29 NüWA:女娲算法,多模态预训练模型,大杀四方!(附源代码下载)
- 2024-09-29 用 Vision Transformer 进行图像分类
你 发表评论:
欢迎- 最近发表
- 标签列表
-
- oraclesql优化 (66)
- 类的加载机制 (75)
- feignclient (62)
- 一致性hash算法 (71)
- dockfile (66)
- 锁机制 (57)
- javaresponse (60)
- 查看hive版本 (59)
- phpworkerman (57)
- spark算子 (58)
- vue双向绑定的原理 (68)
- springbootget请求 (58)
- docker网络三种模式 (67)
- spring控制反转 (71)
- data:image/jpeg (69)
- base64 (69)
- java分页 (64)
- kibanadocker (60)
- qabstracttablemodel (62)
- java生成pdf文件 (69)
- deletelater (62)
- com.aspose.words (58)
- android.mk (62)
- qopengl (73)
- epoch_millis (61)
本文暂时没有评论,来添加一个吧(●'◡'●)