2019-04-24|白质高信号分割总结

<>

关于白质高信号的分割总结
https://wmh.isi.uu.nl/results/


1.介绍了训练集/测试集相关详细信息,数量,采集设备及参数,来源等;
2.数据预处理

  • All images were bias-corrected using SPM12
  • Using the elastix toolbox for image registration。
  • The 3D T1-weighted images were aligned tieh the resampled FLAIR images.
  1. 参赛队伍方案介绍:
    1.【achilles:11】采取了HighResNet 和 DeepLab v3,使用了空洞卷积,atrous spatial pyramid pooling,残差连接。在FLAIR上进行训练,采取了随机的尺寸的pathes,应用了scaling和rotation数据增强。

    1. 【cian:2】采取了multi-dimensional gated recurrent units(MD-GRU)来训练3D pathes,数据增强采取了random deformation,rotation, scaling。


      2019-04-24|白质高信号分割总结_第1张图片
    2. 【hadi:20】采取了自定义多模态特征,训练了一个随机森林分类器,特征包括了密度、梯度、Hessian 特征。

    3. 【ipmi-bern:9】采取了两阶段处理手段,第一个阶段来抽取大脑,第二阶段来判别大脑中的WMH。
      使用了long and short skip connections。数据增强采取了rotation,mirroring。

    5.【k2:5】采取了2D全卷机网络,类似Unet。
    6.【knight:15】voxel-wise级别的逻辑回归,将所有影像数据转换到MNI-152的标准空间上进行训练。
    7.【lrde:7】使用了预训练的16层的VGG网络,使用了FLAIR,T1,经过高通滤波的FLIAR,三者一起输入网络(multi-channel input),最后的全连接层被替换,进行重新训练。
    8.【misp: 6】采取了18层的3D的卷积网络,patches的大小为27×27×9的voxels。
    9.【neruo.ml:18】采取了DeepMedic库,使用了两个并行的分值来处理不同scale的影像,这个网络同样是3D patches。
    10.【nic-vicorob:4】采取了10层的3D卷积网络(原用作分割多发性硬化病变)。输入是的patches,输入两个模态的数据。使用了串联的方法来训练两个个独立的网络,即第一个用于识别候选集的组织,即白质所在地方,第二个网络用于减少假阳性。后面使用了第三个网络来重新训练最后的全连接层来对WMH进行分割。

    2019-04-24|白质高信号分割总结_第2张图片

    2019-04-24|白质高信号分割总结_第3张图片

    2019-04-24|白质高信号分割总结_第4张图片

    详细方案pdf

11.【nih_cidi:8】采取了Unet结构的全卷积神经网络,一个是用FLIAR训练来分割WMH,另外一个是T1训练来分割白质,之后将会分割的白质作为mask应用到WMH分割结果上来去除假阳性。

12.【nist:17】随机森林
13.【nlp_logix:3】多尺度的深度神经网络
receptive fields 采取了size 5x5 和3x3的,预处理方法采取了brain mask(使用fsl的bet工具),将图像的密度scale到0-1之间。对于没有brain的pixel提取3232,6464,128*128的patches,如果patches里面有groundtruth,则标记为positive。

2019-04-24|白质高信号分割总结_第5张图片

14.【scan:10】采取了densely connected convolutional network,使用了dialated convolution。也采取了使用一个网络抽取大脑组织,另一个来从抽取大脑组织中找wmh的思路。

15.【skkumedneuro:12】使用区域增长的思路来分割深部WMH,使用了两个随机森林分类器来去除假阳性。
16.【sysu_media: 1】采取了类似Unet类似的全卷积网络,使用了不同初始化来训练网络,使用data normalization和数据增强,为了移除假阳性,WMH中头和尾的1/8的slices被移除。
训练数据时,将z轴头slices和尾部5个slices去掉,将每个被试进行normalize成均值为0,方差为1.
数据增强采取了Rotation, shearing, scaling along horizontal direction (xscaling), and scaling along vertical direction (y-scaling) were employed for data augmentation on the 7 cases with full annotations.

2019-04-24|白质高信号分割总结_第6张图片
2019-04-24|白质高信号分割总结_第7张图片
2019-04-24|白质高信号分割总结_第8张图片

2019-04-24|白质高信号分割总结_第9张图片

2019-04-24|白质高信号分割总结_第10张图片

2019-04-24|白质高信号分割总结_第11张图片

2019-04-24|白质高信号分割总结_第12张图片

https://wmh.isi.uu.nl/wp-content/uploads/2017/09/sysu_media.pdf
https://wmh.isi.uu.nl/wp-content/uploads/2018/08/sysu_media_2.pdf

  • 聚合了不同receptive fields,比如33 和55 size大小的kernel来抽取small volume,采取更大的kernel来抽取larger volume,两个模型的训练和优化都是独立的,聚合的方式是通过投票策略来去取平均。
  • we replaced the first two convolutional layers by a convolutional stack, with 3 × 3 and 5 × 5 kernel
    size respectively. Each convolutional stack is followed by a rectified linear unit (ReLU) and a 2×2 max pooling operation with stride 2 for downsampling. The depth of the convolutional stack was set as L=5. I
    Stacked Unet文献参考:《Multi-Scale Convolutional-Stack Aggregation for Robust White Matter Hyperintensities》

17.【upc_dlmi: 16】采取了V-net。

2019-04-24|白质高信号分割总结_第13张图片
Rank
2019-04-24|白质高信号分割总结_第14张图片
2019-04-24|白质高信号分割总结_第15张图片

你可能感兴趣的:(2019-04-24|白质高信号分割总结)