添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接
相关文章推荐
谦和的电影票  ·  云计算 - ...·  1 年前    · 
沉着的米饭  ·  Qt | 控件之QCheckBox - 知乎·  1 年前    · 
拉风的眼镜  ·  python插值(scipy.interpo ...·  1 年前    · 
The .gov means it’s official. Federal government websites often end in .gov or .mil. Before sharing sensitive information, make sure you’re on a federal government site. The https:// ensures that you are connecting to the official website and that any information you provide is encrypted and transmitted securely. As a library, NLM provides access to scientific literature. Inclusion in an NLM database does not imply endorsement of, or agreement with, the contents by NLM or the National Institutes of Health.
Learn more: PMC Disclaimer
Sheng Wu Yi Xue Gong Cheng Xue Za Zhi. 2023 Apr 25; 40(2): 193–201.
PMCID: PMC10162927

Language: Chinese | English

一种基于元学习的小样本核磁共振图像分割方法

A meta-learning based method for segmentation of few-shot magnetic resonance images

晓清 陈

中国科学院大学 成都计算机应用研究所(成都 610000), Chengdu Institute of Computer Application, University of Chinese Academy of Sciences, Chengdu 610000, P. R. China

Find articles by 晓清 陈

忠良 付

中国科学院大学 成都计算机应用研究所(成都 610000), Chengdu Institute of Computer Application, University of Chinese Academy of Sciences, Chengdu 610000, P. R. China

Find articles by 忠良 付

宇 姚

中国科学院大学 成都计算机应用研究所(成都 610000), Chengdu Institute of Computer Application, University of Chinese Academy of Sciences, Chengdu 610000, P. R. China 中国科学院大学 成都计算机应用研究所(成都 610000), Chengdu Institute of Computer Application, University of Chinese Academy of Sciences, Chengdu 610000, P. R. China

corresponding author Corresponding author.
陈晓清,Email: nc.moc.tisac@gniqoaixnehc

式(2)中, y ŷ 分别表示真实标注和预测结果。戴斯损失函数可以衡量两个样本之间的相似度,用于样本极度不平衡的情况。如果一般情况下使用戴斯损失函数会使得训练不稳定。式(3)中, N 为样本数量。 y i 代表样本 i 的标签,正类为1而负类为0, p i 表示样本 i 预测为正类的概率。在交叉熵的基础上增加了一个参数 α α = Y / Y Y 代表所有样本的真实标注数量, Y Y 中负样本的数量。 α 可以增大数量少的样本的权重,对不平衡的样本有良好的改善作用,可使得网络的训练结果表现更好。将戴斯损失函数和平衡交叉熵损失函数结合,解决了MR图像分割时样本不平衡问题,经实验证明复合损失函数提高了模型的精确度和收敛速度。

1.2. 网络结构的改进

不同的MR图像分割任务中需要分割的目标尺度往往差距非常大。尺度的差异极大地影响了小样本MR图像分割在面对新任务时的泛化能力。因此本文提出了一种级联的空洞卷积结构,该结构可以提取不同感受野的特征,并且模型参数的数量增加不多,能够有效地适应小样本任务的需求。

提高感受野的最直接方法是使用更大的卷积核,然而更大的卷积核却导致模型有更多的参数需要训练。因此本文为了减少需要训练的参数使用了空洞卷积,在增加感受野的同时压缩了参数数量。空洞卷积是一种稀疏的采样方式,当多个空洞卷积叠加时,会损失信息的连续性与相关性,产生网格效应。Wang等 [ 14 ] 指出选择锯齿状的空洞卷积可以有效避免网格效应提高特征利用率。因此本文采用1、2、5、7四种不同扩张率的空洞卷积进行级联。每个分支将提取不同感受野的特征图,再将提取到的特征图进行融合,生成新的特征图。空洞卷积模块结构如 图1 所示。

Dilated convolution block

空洞卷积模块

面对四个不同的特征图,本文考虑了两种融合方式:将四个特征图直接相加或将四个特征图进行连接。相加融合特征图会导致部分特征的丢失,而连接融合特征图却可以保留不同尺度特征,还可以使得不同尺度的特征在网络的跳跃连接后能够得到更好地复用,因此使用连接融合有望取得更好的效果。通过实验也证明了使用连接融合更有利于提高模型的精度。

本文在模型中引入了注意力机制进一步提高模型的分割精度。注意力机制通常作为一个模块用于编码—解码结构的网络中提高网络精度 [ 15 ] 。本文将注意力机制引入到模型当中,不但提高了分割精度,还有利于可视化解释输入和输出数据之间的对应关系。

注意力模块结构设计如 图2 所示。 x l y l 分别表示第 l 层U-Net结构的跳跃连接输出和模型上一层的输出, x l y l 通过一个1 × 1的卷积后相加,再经过线性整流函数(rectified linear unit,ReLU)、1 × 1卷积、S型生长曲线(Sigmoid)函数处理后与 x l 计算哈达玛积,获得最后的输出 equation Z-20230411185547 。注意力模块在模型推理过程中会自动关注有显著特征的区域并且不会引入大量参数,通过抑制无关区域的信号提高模型灵敏度和准确性。同时,注意力模块还起到了类似分割前器官定位的作用。 equation Z-20230321100346 的计算如式(4)所示:

The Structure of attention block

注意力模块结构

其中, σ 1 是ReLU函数, σ 2 是Sigmoid函数, ψ ψ x ψ y 都是卷积操作, b b y 是对应卷积的偏置项,运算符o代表哈达玛积。将 equation Z-20230321100445 与上一层的输出 y l 进行连接后继续进行后面的运算。

最终模型网络结构如 图3 所示。模型的编码部分使用了5个空洞卷积模块进行串连,每一个空洞卷积模块的输出将作为下一个空洞卷积模块的输入。同时,空洞卷积模块的输出还通过跳跃连接与解码部分相连接,本文在前三个跳跃连接中添加了注意力模块。解码部分使用了5个将ReLU作为激活函数、核大小为3 × 3的卷积层,每一个卷积层后跟一个上采样层。解码部分卷积层的输入是模型前一层网络的输出以及对应编码部分输出连接后的向量。通过以上模块构成类U-Net结构,使网络能有效适应不同尺度的目标,提取到的特征也得到有效地复用,提高了网络分割精度。

Dilated convolution U-net with attention block

带注意力机制的空洞卷积U-Net

2. Meta-UNet网络训练

2.1. 使用MAML学习分割器

本文使用MAML训练网络以获得适用于小样本任务的优秀分割器。下面重点介绍使用MAML学习分割器实例的方法。在学习过程中,训练数据是带有分割目标真实标记的图像。给定一个患者(记为 P i ),收集一组训练样本(记为 equation Z-20230321101135 ),即是meta-learning中的支持集(support set)。分割器表示为 f(x ; θ 0 ) ,其中 x 是输入图像,而 θ 0 表示分割器的初始化参数。使用梯度下降更新分割器 k 次后的参数记为 θ k ,如式(5)所示:

其中, L 是损失函数, y 是输入图像 x 所对应的标签, N t s 为当前支持集中的样本数量, α 是内部优化的学习率。如式(5)所示的迭代过程称为内部优化过程,内部优化后,还需要验证优化后分割器的泛化能力。在同一个患者 P i 上产生另一个样本集 equation Z-20230321101034 ,即meta-learning中的查询集(query set), equation Z-20230321101113 包含的样本数量为 N i t 计算当前分割器在查询集上的的平均损失 L mean ,如式(6)所示:

其中, y 是输入图像 x 的标签。计算迭代一轮后的损失,更新初始化参数 θ 0 的方式如式(7)所示:

其中, N 表示病例的数量, β 是外部循环的学习率, equation Z-20230321101316 表示更新后的参数。如式(7)所示过程为外部优化过程。外部优化的梯度通过内部优化的梯度进行反向传播。通过以上步骤利用梯度下降方法即可获得所需的分割器。

2.2. Meta-UNet网络训练

Meta-UNet网络训练结构由内循环和外循环两个部分组成。从内部循环开始到外部循环结束为一轮完整的训练过程。网络 f A ( θ )和网络 f B ( ϕ )是结构相同的两个网络,使用梯度下降法来优化网络。将已标记数据集 D 按照分割目标分为支持集、验证集、测试集三个数据集,分别记为 D s D v D t D s D v 中只有部分分类目标相同, D t 与另两个数据集分割目标完全不相同。根据小样本训练任务中的类别数 N 以及任务数量 N s N v 对支持集和验证集进行采样,获得不同的任务集合 T s T v α β 分别是内外循环的学习率。首先使用随机初始化方法初始化网络 f A ( θ )的参数。每一轮训练开始时,将 f A ( θ )的参数赋值给网络 f B ( ϕ ),即 ϕ = θ ,同时在任务集 equation Z-20230411185801equation Z-20230411185750 上随机采样获得一批数据记为 equation M1equation M2 。进行内循环训练,对于 equation M3 中的每一个样本计算损失梯度同时更新 f B ( ϕ )的参数 ϕ ,如式(8)所示:

其中, equation Z-20230321101608 ϕ 更新后的模型参数 完成内循环训练后利用验证集 equation M4 中的样本开始外部循环,更新 f A ( θ )的参数 θ ,如式(9)所示:

其中, equation Z-20230321101903 ϕ 更新后的模型参数。通过多轮以上的训练步骤后就可以得到需要的模型 f A ( equation Z-20230321101913 )。

3. 实验及分析

3.1. 实验数据及性能度量指标

本文实验数据来源于马萨诸塞大学医学院儿童和青少年神经发育计划(child and adolescent neuro development initiative,CANDI)(网址为:https://www.nitrc.org/projects/candi_share/)提供的公开数据集 [ 16 ] 。数据集包含103个患者的MR的T1加权图像,采集自57名男性和46名女性,图像的大小为256 × 256,并且提供了39个大脑解剖结构的标注。为了计算效率本文通过减小输入大小以降低计算量,将MR图像裁剪成以原图像中心为中心的160 × 160大小。裁剪后通过检查,该大小图像依然足以容纳整个大脑。

本文性能度量指标选取戴斯相似性系数(Dice similarity coefficient,DSC)以及交并比(intersection over union,IoU)评估每个模型的分割精度,它们可以衡量手动注释和预测结果之间的重叠程度。

3.2. 实验结果

实验环境:中央处理器(Xeon 8369B @2.9GHz,Intel,美国),独立显卡(Tesla V100 32GB,Nvidia,美国)。深度学习框架为PyTorch 1.12.1(Linux Foundation,美国),编程语言为Python 3.10.5(Python Software Foundation,美国)。

3.2.1. 损失函数有效性实验

在CANDI数据集上,本文将U-Net作为基础网络,进行不同损失函数对模型性能影响的对比。实验选择脑干、左脑白质、左脑室、右苍白球、右海马体的分割任务对不同的损失函数进行比较。这些大脑结构覆盖了大脑中尺度不同的不同结构,能够有效说明损失函数选择的有效性。实验中将数据按照4:1的比例分为训练集和测试集,利用不同的损失函数在训练集上对模型进行训练后在测试集上进行验证。实验结果如 表1 所示。本文绘制了选用复合损失函数以及单独使用戴斯损失函数 L D 和平衡交叉熵损失函数 L B 在分割脑干、左脑白质、左脑室、右苍白球和右海马体时模型精度和训练轮数的比较,如 图4 所示。可见使用复合损失函数模型精度提高的同时收敛速度也得到了提高。

表 1

The mean DSC of models trained with different loss functions

用不同损失函数训练模型的DSC

损失函数 DSC
脑干 左脑白质 左脑室 右苍白球 右海马体
90.1% 92.7% 91.2% 90.7% 87.9%
92.5% 95.8% 96.8% 91.5% 89.3%
93.0% 95.9% 97.2% 92.3% 89.9%

Comparison of model accuracy on different segmentation tasks using different loss functions

使用不同损失函数的模型精度在不同分割任务上的比较

3.2.2. 特征图融合实验

对特征图的融合方式进行实验。利用本文提出的Meta-Unet网络使用特征图相加和连接两种方式进行实验。内部循环学习率采用0.01,外部循环采用0.001的学习率。训练好的模型面对新的右脑白质和脑干的分割任务,仅使用一个带标记的病例数据训练迭代100次,进行分割测试。得到的实验结果如 表2 所示。同时分割结果的可视化对比如 图5 所示,不同颜色线条分别表示脑干和右脑白质的分割结果,第一行为准确标注的标准分割结果,第二行依次为采用相加融合与连接融合的结果。从实验结果可以看出,使用连接的方式进行特征图融合可以使模型获得更高的分割精度。

表 2

The DSC and IoU of models with different feature map fusion methods

用不同特征图融合方式模型的DSC和IoU

特征连接方式 DSC IoU
脑干 右脑白质 脑干 右脑白质
相加融合 79.8% 85.7% 66.4% 75.0%
连接融合 85.1% 86.6% 74.1% 76.4%

Comparison of segmentation results using different feature map fusion methods

使用不同特征图融合方式分割结果比较

3.2.3. 模型比较实验

在进行模型训练时本文随机选取其中25个结构作为训练数据,12个结构作为测试数据。为了找到对于每个任务都相对最优的初始参数,必须使用相对较大的学习率,而优化真正模型参数的学习率应该是相对较小的。所以实验中内部循环学习率采用0.01,外部循环采用0.001的学习率。利用MAML方法训练模型的迭代次数为500次。选取无监督医学图像配准分割方法体素变形网络(voxel morph network,VoxelMorph) [ 17 ] 、基于数据增强医学图像分割方法转换学习数据增强模型(data augmentation using learned transformations,DataAug)和标签转移网络(label transfer network,LT-Net)医学图像分割方法三种当前已获认可的方法和本文提出的新方法比较,仅仅使用一个带标记的病例数据迭代训练100次,本文提出的模型即获得了更高的平均DSC。以用全部病例数据全监督学习的U-Net网络作为基线进行对比,仅使用一个带标注的病例数据进行训练,本文方法在不同任务中获得了最高91.8%的DSC,标准差与其他模型比较也明显更小。实验结果如 表3 所示,列出了不同模型在不同分割任务上的平均DSC和标准差,本文方法的平均DSC比起VoxelMorph、DataAug、LT-Net都有一定提高。如 表4 表5 所示,对比了不同模型在不同分割任务上的DSC和IoU。

表 3

The mean DSC and standard deviations for different models on test data

不同模型在测试数据集上的平均DSC和标准差

模型名称 平均DSC 标准差
VoxelMorph 74.13% 10.94%
DataAug 80.98% 9.82%
LT-Net 81.16% 7.91%
Meta-UNet 82.01% 6.05%
U-Net 86.70% 6.90%

表 4

The DSC in different few-shots segmentation tasks for different models

不同模型不同小样本分割任务中的DSC

模型名称 DSC
大脑白质 大脑皮质 脑室 小脑白质 小脑皮质 丘脑 尾状核 第三脑室 第四脑室 海马体 脑脊液 主动脉
VoxelMorph 81.7% 87.1% 76.7% 74.0% 86.3% 84.7% 79.6% 62.9% 69.8% 59.2% 50.9% 76.6%
DataAug 90.5% 93.3% 87.5% 82.3% 93.2% 87.3% 83.1% 66.3% 72.2% 72.5% 63.3% 80.3%
LT-Net 85.8% 90.9% 83.1% 80.0% 91.6% 87.9% 85.5% 68.4% 79.7% 71.6% 67.1% 82.3%
Meta-UNet 86.3% 89.7% 83.9% 81.5% 91.8% 82.7% 86.3% 76.6% 80.1% 73.1% 70.6% 81.5%
U-Net 92.0% 93.1% 91.8% 87.9% 93.1% 90.6% 92.0% 79.0% 84.9% 80.3% 69.8% 85.9%

表 5

The IoU in different few-shots segmentation tasks for different models

不同模型不同小样本分割任务中的IoU

模型名称 IoU
大脑白质 大脑皮质 脑室 小脑白质 小脑皮质 丘脑 尾状核 第三脑室 第四脑室 海马体 脑脊液 主动脉
VoxelMorph 69.1% 77.1% 62.2% 58.7% 75.9% 73.5% 66.1% 45.9% 53.6% 42.0% 34.1% 62.1%
DataAug 82.6% 87.4% 77.8% 69.9% 87.3% 77.5% 71.1% 49.6% 56.5% 56.9% 46.3% 67.1%
LT-Net 75.1% 83.3% 71.1% 66.7% 84.5% 78.4% 74.7% 52.0% 66.3% 55.8% 50.5% 69.9%
Meta-UNet 75.9% 81.3% 72.3% 68.8% 84.8% 70.5% 75.9% 62.1%% 66.8% 57.6% 54.6% 68.8%
U-Net 85.2% 87.1% 84.8% 78.4% 87.1% 82.8% 85.2% 65.3% 73.8% 67.1% 53.6% 75.3%

本文对U-Net、VoxelMorph、DataAug和本文提出的Meta-UNet四种模型对大脑结构进行分割的结果切面进行可视化,如 图6 所示。 图6 中,不同颜色线条分别展示了对右脑白质、右大脑皮质、右侧脑室、右小脑白质、右小脑皮质、右丘脑、右海马体、脑脊液的分割结果,第一行为准确标注,第二行依次为U-Net、VoxelMorph、DataAug以及本文提出的Meta-Unet的分割结果。其中红色箭头指示了与其它方法相比Meta-UNet分割的优势,可以看出,本文的Meta-UNet分割出的大脑结构更符合医学解剖学意义。

An external file that holds a picture, illustration, etc. Object name is swyxgcxzz-40-2-193-6.jpg

Results of brain structure segmentation for different models

不同模型的大脑结构分割结果

3.3. 实验结果讨论

(1)损失函数有效性实验:实验结果如 表1 所示,使用复合损失函数的分割模型对脑干、左脑白质、左脑室、右苍白球和右海马体进行分割的精度都提高了。如 图4 所示,也证明了使用复合损失函数的情况下模型精度提高的同时收敛速度也得到了提高。分析其原因主要是利用新的复合损失函数进行训练使得模型有效适应样本均衡和不均衡的情况。

(2)特征图融合实验:使用不同融合方式进行图像分割的DSC和IoU结果如 表2 所示。 图5 可视化了分割结果的对比。从以上结果都可以看出,使用连接融合特征图的方式要优于直接相加。直接相加操作会带来信息损失,且直接相加的融合方式默认几个特征图的权重一致,然而不同的特征图对于最终模型的影响效果却不一定是等权重的。使用连接的方式进行特征图的融合,则避免了上面的问题。

(3)模型比较实验:从 表4 表5 可以看到本文方法在对脑白质、大脑皮质、脑室、小脑白质、小脑皮质、丘脑这些相对较大的目标分割上的表现和现有方法相当,而在尾状核、第三脑室、第四脑室、海马体、脑脊液、主动脉这些相对较小的目标分割时表现出更好的结果。实验结果证明了Meta-UNet在脑MR图像小样本分割任务上的优越性。正如前面分析指出的,本文方法引入空洞卷积和注意力机制对不同尺度的目标分割具有良好的适应性,而引入MAML则可以利用额外有意义的监督信号来推动小样本学习过程朝着更稳健和解剖学上更有意义的方向发展。从实验中还可以发现DataAug方法在脑白质、大脑皮质、脑室、小脑白质、小脑皮质、丘脑这些相对较大的目标分割任务中的表现较本文提出的Meta-Unet方法好。分析其原因,DataAug方法是对一个带标签的图像和一组无标签的图像之间的空间和外观转换进行建模,学习带标签图像和无标签图像之间的非线性变形和成像强度的多种变化。然后,使用这些变换模型随机作用在有标签的示例上来合成新的带标签的示例,从而达到扩充带标签数据集的目的。最后,把这些新合成的带标签数据用于训练有监督的分割网络模型。DataAug在生成扩充带标签数据集时使用了无标签的测试数据,因此测试数据也参与到了模型的训练过程,使得DataAug的表现相对较好。但面对相对较小的目标时,通过对空间和外观转换建模的方法进行DataAug效果不理想。因此在小目标分割时本文提出的方法得到了更好的效果。

4. 结论

本文将meta-learning、注意力机制和空洞卷积这三个机器学习经典思想应用到MR图像分割中,提出了一种结合meta-learning、注意力机制和空洞卷积的Meta-UNet网络,并利用该网络实现了MR图像的小样本分割。本文模型对U-Net网络进行了改进,首先引入了空洞卷积,使网络模型的感受野增加,在小幅增加计算量的前提下提高了模型对不同尺度目标的灵敏度。其次,引入了注意力机制,进一步提高模型对不同尺度分割目标的适应性。最后,引入了MAML机制,使用复合损失函数对模型训练进行良好的监督和有效的引导,使得模型能够更好地适应小样本分割任务。实验结果表明,在不同尺度目标的小样本分割任务中,Meta-UNet的分割结果更加符合临床医学解剖学要求。将本文研究思路和方法应用于图像质量差、图像差别大、图像分割困难的超声心动图小样本分割上,将是本课题组下一步研究重点。

重要声明

利益冲突声明:本文全体作者均声明不存在利益冲突。

作者贡献声明:陈晓清是本研究的实验设计和执行人,完成数据分析,论文初稿的写作与修改;付忠良和姚宇指导论文写作,提出修改意见。

Funding Statement

国家自然科学基金面上项目(61971091);四川省科技计划项目(2022YFS0384)

Funding Statement

National Natural Science Foundation of China; Science and Technology Department of Sichuan Province

References

1. Ronneberger O, Fischer P, Brox T. U-net: convolutional networks for biomedical image segmentation// Medical Image Computing and Computer-Assisted Intervention(MICCAI), Charm: Springer, 2015: 234-241.
2. Zeng G, Yang X, Li J, et al. 3D U-net with multi-level deep supervision: fully automatic segmentation of proximal femur in 3D MR images// Machine Learning in Medical Imaging, Cham: Springer, 2017: 274-282.
3. Milletari F, Navab N, Ahmadi S. V-Net: fully convolutional neural networks for volumetric medical image segmentation// International Conference on 3D Vision (3DV), Stanford: IEEE, 2016: 565-571.
4. Bouget D, Pedersen A, Hosainey S A M, et al Fast meningioma segmentation in T1-weighted magnetic resonance imaging volumes using a lightweight 3D deep learning architecture. J Med Imaging (Bellingham) 2021; 8 (2):024002. [ PMC free article ] [ PubMed ] [ Google Scholar ]
5. Ren J, Sun H, Zhao H, et al Effective extraction of ventricles and myocardium objects from cardiac magnetic resonance images with a multi-task learning U-net. Pattern Recognit Lett. 2022; 155 :165–170. doi: 10.1016/j.patrec.2021.10.025. [ CrossRef ] [ Google Scholar ]
6. Abulnaga S M, Rubin J. Ischemic stroke lesion segmentation in CT perfusion scans using pyramid pooling and focal loss// Brainlesion: Glioma, Multiple Sclerosis, Stroke and Traumatic Brain Injuries, Cham: Springer, 2019: 352-363.
7. Li F F, Fergus R, Perona P. A bayesian approach to unsupervised one-shot learning of object categories// Proceedings Ninth IEEE International Conference on Computer Vision, 2003, 2003(2): 1134-1141.
8. Hospedales T, Antoniou A, Micaelli P, et al Meta-learning in neural networks: a survey. IEEE Trans Pattern Anal Mach Intell. 2022; 44 (9):5149–5169. [ PubMed ] [ Google Scholar ]
9. Zhao A, Balakrishnan G, Durand F, et al. Data augmentation using learned transformations for one-shot medical image segmentation// Computer Vision and Pattern Recognition (CVPR), Long Beach: IEEE, 2019: 8543-8553.
10. Chartsias A, Papanastasiou G, Wang C, et al Disentangle, align and fuse for multimodal and semi-supervised image segmentation. IEEE Trans Med Imaging. 2021; 40 (3):781–792. doi: 10.1109/TMI.2020.3036584. [ PMC free article ] [ PubMed ] [ CrossRef ] [ Google Scholar ]
11. Guo J, Odu A, Pedrosa I Deep learning kidney segmentation with very limited training data using a cascaded convolution neural network. PLoS One. 2022; 17 (5):e0267753. doi: 10.1371/journal.pone.0267753. [ PMC free article ] [ PubMed ] [ CrossRef ] [ Google Scholar ]
12. Wang S, Cao S, Wei D, et al. Lt-net: label transfer by learning reversible voxel-wise correspondence for one-shot medical image segmentation// Computer Vision and Pattern Recognition (CVPR), Seattle: IEEE, 2020: 9159-9168.
13. Finn C, Abbeel P, Levine S. Model-agnostic meta-learning for fast adaptation of deep networks// International Conference on Machine Learning, Sydney: PMLR, 2017: 1126-1135.
14. Wang P, Chen P, Yuan Y, et al. Understanding convolution for semantic segmentation// IEEE Winter Conference on Applications of Computer Vision (WACV), Lake Tahoe: IEEE, 2018: 1451-1460.
15. Xu K, Ba J, Kiros R, et al. Show, attend and tell: neural image caption generation with visual attention// International Conference on Machine Learning, Lille: PMLR, 2015: 2048-2057.
16. Kennedy D N, Haselgrove C, Hodge S M, et al CANDIShare: a resource for pediatric neuroimaging data. Neuroinformatics. 2012; 10 (3):319–322. doi: 10.1007/s12021-011-9133-y. [ PMC free article ] [ PubMed ] [ CrossRef ] [ Google Scholar ]
17. Balakrishnan G, Zhao A, Sabuncu M R, et al Voxelmorph: a learning framework for deformable medical image registration. IEEE Trans Med Imaging. 2019; 38 (8):1788–1800. doi: 10.1109/TMI.2019.2897538. [ PubMed ] [ CrossRef ] [ Google Scholar ]

Articles from Sheng Wu Yi Xue Gong Cheng Xue Za Zhi = Journal of Biomedical Engineering are provided here courtesy of West China Hospital of Sichuan University