添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接
The .gov means it’s official. Federal government websites often end in .gov or .mil. Before sharing sensitive information, make sure you’re on a federal government site. The https:// ensures that you are connecting to the official website and that any information you provide is encrypted and transmitted securely. As a library, NLM provides access to scientific literature. Inclusion in an NLM database does not imply endorsement of, or agreement with, the contents by NLM or the National Institutes of Health.
Learn more: PMC Disclaimer
Nan Fang Yi Ke Da Xue Xue Bao. 2023 Jun 20; 43(6): 985–993.
PMCID: PMC10339306

Language: Chinese | English

基于半监督网络的组织感知CT图像对比度的增强方法

A semi-supervised network-based tissue-aware contrast enhancement method for CT images

周 昊 , 1, 2, * 曾 栋 , 1, 2 边 兆英 , corresponding author 1, 2, * and 马 建华 1, 2

周 昊

南方医科大学生物医学工程学院,广东 广州 510515, Department of Biomedical Engineering, Southern Medical University, Guangzhou 510515, China 琶洲实验室(黄埔),广东 广州 510515, Pazhou Lab (Huangpu), Guangzhou 510515, China

Find articles by 周 昊

曾 栋

南方医科大学生物医学工程学院,广东 广州 510515, Department of Biomedical Engineering, Southern Medical University, Guangzhou 510515, China 琶洲实验室(黄埔),广东 广州 510515, Pazhou Lab (Huangpu), Guangzhou 510515, China

Find articles by 曾 栋

边 兆英

南方医科大学生物医学工程学院,广东 广州 510515, Department of Biomedical Engineering, Southern Medical University, Guangzhou 510515, China 琶洲实验室(黄埔),广东 广州 510515, Pazhou Lab (Huangpu), Guangzhou 510515, China

Find articles by 边 兆英

马 建华

南方医科大学生物医学工程学院,广东 广州 510515, Department of Biomedical Engineering, Southern Medical University, Guangzhou 510515, China 琶洲实验室(黄埔),广东 广州 510515, Pazhou Lab (Huangpu), Guangzhou 510515, China 南方医科大学生物医学工程学院,广东 广州 510515, Department of Biomedical Engineering, Southern Medical University, Guangzhou 510515, China 琶洲实验室(黄埔),广东 广州 510515, Pazhou Lab (Huangpu), Guangzhou 510515, China -1100HU, W max = -100HU为例,其映射公式如下:

其中 I ( i , j ) 表示CT图像中位于( i , j ) 位置的像素, I lung ( i , j ) 是肺窗映射的结果, DR 指映射值的范围, DR sp 为该映射范围的起点。在本次实验中, DR = 255, DR sp = 0,监督子网络部分所使用损失函数 L conver 为:

其中 y 表示来自于 Y ' 的像素, ei , ej 表示器官边界处极值点的坐标, m ' , n ' 表示邻域内非极值点的坐标, N 2 表示邻域内非极值点的总数。这些非极值点也被认为是正确分类的像素,而极值点被认为是误分类的像素。 β L 表示距离权重,与当前像素点离肺部边缘的距离成反比。

最终T-ACEnet模块所使用的总的损失函数为:

当前EVS算法处理仍然属于2D层次,极值点的选取局限于图像本身。为了获取图像上下文信息,以更好地保证组织边缘纹理细节,可以将该算法推广至3D层次。具体来说,式(4)中的极值点是在2D范围内进行判断,现将其判断范围扩大,如果像素点在相邻切片所组成的3D范围内仍然为极值点,则进行平滑处理。这种3D处理方法,本文将其称为T-ACE3D。

1.2. T-ACE图像分割实验

图 1C 是本文所使用的分割网络结构。它可以被替换为任意的分割网络,以达到更好的实验结果,这里以Nested UNet为基础网络进行实验。为了评估T-ACE图像作为分割预处理的有效性,除了初始输入图像不同外其余条件均一致。首先,所有输入CT图像的值统一映射到[0-255],非增强CT图像通过最大最小归一化映射到该范围。模型输入通道数为1,而输出通道数为14(包括背景、脾脏、右肾、左肾、胆囊、食道、肝脏、胃、主动脉、下腔静脉、门静脉和脾静脉、胰腺、右肾上腺、左肾上腺)。使用学习率为0.001的Adam优化器,batch大小为8,训练epoch数为200以保障网络训练时的损失函数可以到达平台期。分割网络所使用的损失函数为Lovász-Softmax损失函数,其表达式为:

其中 C 表示欲分类的总类别数,∆ J c 为第 c 个类的Jaccard损失, m ( c ) 表示第 c 个类的像素误差。

1.3. 数据集及实验细节

本实验所使用的数据集来自MICCAI 2015 Multi-atlas Labeling Beyond the Cranial Vault(MLBCV)挑战赛。选择其中30例有器官分类标签的病人数据参与实验,包含13种腹部器官标签数据,具体器官在1.2节中有所介绍。所有数据在门静脉造影阶段重建得到,图像矩阵大小为512×512。在30例数据中,27例数据以8:2的比例被用于网络训练、验证,剩余3例数据被用于网络测试。T-ACEnet的子网络和分割网络均使用相同的Nested Unet网络结构, 图 1C 中展示了所用到的网络结构,其中VGG模块包含2个卷积层、批量归一化(BN)层以及整流线性单元组合(Relu)。T-ACEnet网络优化器选择Adam优化器,学习率设置为0.001,batch大小为8。

为验证T-ACEnet模型的优越性,5种对比度增强算法包括梯度域图像重建框架 [ 23 ] (GDRF)、自适应TVI-TMO算法 [ 24 ] (ATT)、混合L1-L0层分解方法 [ 25 ] (H3LD)、非均匀量化方法 [ 26 ] (NUQ)和图像尺寸依赖归一化方法 [ 27 ] (NISDN)与T-ACEnet进行对比,并通过结构相似性(SSIM)、峰值信噪比(PSNR)、均方根误差(MSE)、融合图像视觉保真度 [ 28 ] (VIFF)和QABF [ 29 ] 对6种方法的结果进行测试。

为了比较T-ACE图像与原始CT图像对于分割精度的影响,本文选择了五种基于深度学习的分割方法,分别是作为Baseline的Nested UNet [ 16 ] 、UNet [ 14 ] 、结合Transformers和UNet的TransUNet [ 30 ] 方法、可以捕获全局依赖关系和局部上下文的MissFormer [ 31 ] 方法和可以克服医学图像放大倍率问题和失真问题的TFCN [ 32 ] 方法。在实验中,Nested UNet进行2次实验,输入分别为T-ACE图像和原始CT图像,其他4种方法的输入仅为原始CT图像。同时灵敏度、Jaccard相似系数、马修斯系数(MCC)、精确率(Precision)以及Dice度量这五个指标被用于分割结果的量化评估。

2. 结果

2.1. T-ACE图像病灶可视化能力

图 3 展示了不同窗宽窗位设置下的胸部CT图像。 图 3A 为肺窗设置下的胸部CT图像, 图 3B 为软组织窗设置下的胸部CT图像,可以看到蓝色箭头所指的钙化点在这两幅图像中容易与背景混淆,缺少对比度。 图 3C 表示为了凸显钙化点使用定制窗宽窗位的胸部CT图像,其窗口为[-700 0]HU, 图 3D 表示T-ACE图像,在这两幅图像中,钙化点与背景有较为清晰的对比,更易识别。

An external file that holds a picture, illustration, etc. Object name is nfykdxxb-43-6-985-3.jpg

不同窗口设置下的胸部CT图像

Chest CT images with different window settings. A : Chest CT image with the "lung" window setting [-1100 -100] HU. B : Chest CT image with the "soft tissue" window setting [-250 200] HU. C : Chest CT image with a special window setting [-700 0] HU. D : The T-ACE image produced by the presented T-ACEnet method with the window setting [0 255].

图 4 展示了不同窗宽窗位设置下的腹部CT图像。 图 4A 为肺窗设置下的腹部CT图像, 图 4B 为软组织窗设置下的腹部CT图像, 图 4C 为T-ACE腹部图像。蓝色指向的肝脏囊肿在 图 4A 完全无法辨别,而T-ACE图像则有着与 图 4B 相媲美的软组织病灶可视化能力,同时还提供了一部分肺部的结构细节信息。

An external file that holds a picture, illustration, etc. Object name is nfykdxxb-43-6-985-4.jpg

不同窗口设置下的腹部CT图像

Abdominal CT images with different window settings. A : Chest CT image with the "lung" window setting [-1100 -100] HU. B : Chest CT image with the "soft tissue" window setting [-250 200] HU. C : The T-ACE image produced by the presented T-ACEnet method with the window setting [0 255].

2.2. 对比度增强方法比较

图 5 展示了不同对比度增强方法的实验结果。 图 5A B 分别是肺窗设置下和软组织窗设置下的胸部CT图像,也可以认为是肺部和肺外部的金标准图像。 图 5C ~ ~I I 分别是GDRF、ATT、H3LD、NUQ、NISDN、T-ACEnet以及T-ACE3D方法生成的增强结果。其中,GDRF、H3LD、NUQ和本文所提出的T-ACEnet、T-ACE3D方法在肺部的表现优于ATT和NISDN方法。ATT方法的结果整体呈现过曝光的状态,而NISDN方法则未能成功地显示更多肺部细节。至于肺外区域的视觉效果,T-ACEnet和T-ACE3D明显优于其他竞争方法,肺外结构的细节信息与噪声水平可以与金标准相媲美。

An external file that holds a picture, illustration, etc. Object name is nfykdxxb-43-6-985-5.jpg

不同对比度增强方法的胸部CT图像实验结果。

Chest CT images generated by different methods. A : Chest CT image with the "lung" window setting [-1100 -100] HU. B : Chest CT image with the "soft tissue" window setting [-250 200] HU. The contrast-enhanced images produced by GDRF ( C ), ATT ( D ), H3LD ( E ), NUQ ( F ), NISDN ( G ), T-ACEnet ( H ) and T-ACE3D ( I ) methods. The contrast-enhanced images are displayed in the same window setting [0 255].

表 1 总结了不同方法得到的对比度增强图像的定量测量,其中SSIM、PSNR和MSE的值是肺内和肺外区域分别计算后的累加和,加粗标记的数字为该指标中表现最优的结果。

表 1

不同对比度增强方法的量化评估

Quantitative assessments of the images generated using different methods

Item GDRF ATT H3LD NUQ NISDN T-ACEnet T-ACE3D
SSIM 1.4560 1.2729 1.4583 1.3534 1.4367 1.9641 1.9631
PSNR 41.1613 32.0792 46.0644 45.6145 33.6596 60.2038 62.4714
MSE 1425 5952 2694 1442 3180 134 100
QABF 0.2901 0.1996 0.4275 0.3348 0.0542 0.6905 0.7004
VIFF 0.0317 0.0359 0.0606 0.0478 0.0117 0.1623 0.1765

2.3. T-ACE图像对分割精度的影响

T-ACE图像与原始CT图像作为分割网络输入的定性和定量结果如 图 6 所示。 图 6A ~ ~E E 是5种深度学习方法的分割结果,其输入为原始CT图像; 图 6E 是输入为T-ACE图像的Nested UNet方法。可以看到,T-ACE图像的分割结果更加接近参考的分割结果。其中胃部组织(青绿色)仅有T-ACE图像可以较为完整地分割标记,肝脏下方的胆囊(淡黄色)仅有UNet和T-ACE可以较为完整地分类。

An external file that holds a picture, illustration, etc. Object name is nfykdxxb-43-6-985-6.jpg

不同分割对比方法在腹部的实验结果。右侧展示了不同颜色与组织间的对应关系

Results of abdominal image segmentation using different segmentation methods and the relationship between colors and tissues (right).

表 2 展示了6种分割方法的量化指标评估。每个评价指标的计算仅展示Class 0即所有组织的结果,其中表现最优的结果以粗体突出显示。从表中可以看出,最近几年的方法相比于UNet方法均有一定的提升,其中T-ACE图像作为输入提升最大,在五个指标上相比于表现最差的方法分别提升了3.21%、4.92%、5.89%、5.65% 和3.34%。 图 7 是对 表 2 的扩充,图中不仅展示了Class 0的计算结果,更展示了每一个子类的结果。其中T-ACE图像结果以红线表示,可以看到在多数子类上T-ACE图像均位于前列。从折线图可知UNet、Nested UNet和TransUNet在Class 12(右肾上腺)这种小组织上表现极差,而淡绿色的MissFormer和红色的T-ACE图像在所有子类上均保持在一个较高的水平。

表 2

六种分割方法的量化指标评估

Quantitative evaluation of 6 segmentation methods

Item UNet NestedUNet TransUNet MissFormer TFCN T-ACE
Dice 0.9209 0.9281 0.9318 0.9440 0.9194 0.9515
Sensitivity 0.8755 0.9122 0.9108 0.9069 0.9180 0.9247
Precision 0.9712 0.9445 0.9538 0.9842 0.9209 0.9798
Jaccard 0.8533 0.8658 0.8723 0.8939 0.8509 0.9074
MCC 0.9200 0.9262 0.9301 0.9432 0.9171 0.9505
An external file that holds a picture, illustration, etc. Object name is nfykdxxb-43-6-985-7.jpg

不同方法所得分割结果的定量评估

Quantitative assessment of segmentation results using different methods.

3. 讨论

本文提出的T-ACEnet可以自适应地为器官组织选择恰当的窗口映射关系,从而在一幅CT图像中包含多个窗口设置信息,为医生带来更便捷、更全面的诊断体验。有相关研究表明,类似的技术可用于临床,并且在诊断效率及病灶检测方面不输于传统调窗方法,甚至更优秀 [ 5 ] 图 3 图 4 分别展示了T-ACE图像在胸腔肺部与腹部软组织的病灶检测能力,其中 图 3 仅有特定的窗宽窗位设置与T-ACE图像可以分辨异常点, 图 4 的肝脏囊肿则可以在软组织窗图像和T-ACE图像中识别。但是特定的窗宽窗位意味着医生需要手动调整窗口设置,导致诊断效率的降低。而T-ACE图像融合了2种窗口设置信息,相比单一的窗口设置能够在同一时间内提供更多有效诊断信息。综上,T-ACE图像有潜力做到同时诊断肺内、肺外区域,为医生带来更系统、流畅的诊断体验,避免多次切换窗口设置导致的信息丢失。

而不同对比度增强的方法比较证明了本文所提出方法的优越性,T-ACEnet生成图像的肺部细节纹理可以媲美其他同样在肺部表现出色的方法如 图 5C E 。至于肺外区域,仅有T-ACE图像(H)、(I)可以媲美金标准。用于评估图像质量的定量指标同样体现了这一点,如 表 1 所示,T-ACE3D方法取得了5个最优结果,SSIM的最优结果为T-ACEnet,二者相比于其他对比度增强方法在6个定量指标上均有极大的提升。虽然TACE3D方法可以取得更高的定量结果,但相比于2D TACEnet方法并没有很大提升,同时T-ACE3D在训练过程中需要加入图像上下文信息,导致网络训练用时约为T-ACEnet的2倍。考虑到训练时间与实验效果的平衡,本文在其他实验中依然以2D的T-ACEnet实验结果进行展示说明。以T-ACEnet为例,其在SSIM、QABF、VIFF、PSNR指标上相较于次优方法分别提升了0.51、0.26、0.10和14.14,MSE则降低了一个数量级。综合定性、定量实验结果,本文所提出的T-ACEnet和T-ACE3D方法可以获得优于同类方法的对比度增强图像。

为了进一步探寻T-ACE图像的应用场景,我们又看向了器官分割这一智能医疗领域内的关键任务。随着深度学习领域整体的不断进步,基于深度学习的器官分割精度也在随之提升,但是所使用的模型也在不断复杂化,庞大的参数量与医院落后的显卡设备之间的矛盾不可忽视,不能部署到临床实际使用的分割模型其应用场景终归有限。因此,本文验证了对比度增强图像对于分割精度的影响。实验表明,在不改动网络结构的情况下,使用T-ACE图像可以有效提高多器官分割任务的分割精度,减少错误标注的出现。在定量评估中,如 表 2 所示,以多器官共同评估的情况(Class 0)为例,在不改变模型的情况下,T-ACE图像相比于原始CT图像作为输入的Nested UNet方法,5个分割定量指标Dice、Sensitivity、Precision、Jaccard、MCC分别提升了2.34%、1.25%、3.53%、4.16%、2.43%,提升幅度最大的一项指标(Jaccard系数)提高了4.16%。综合定性、定量结果,本文所提出的T-ACE图像在腹部多组织分割任务中的性能表现要优于其他输入为原始CT图像的深度学习方法,其不仅可以准确地分割大组织,更可以在小组织上保持一定的分割精度,这也为一些小模型继续提高分割性能表现带来了可能。

本研究仍有一些问题有待解决,也是我们未来研究的方向。第一,在覆盖器官区域方面,我们目前的成果只是增强了两个区域(肺部区域和肺外区域)的对比度,没有实现额外的窗宽窗位设置。通过修改损失函数的输入,我们有望得到更多区域的增强显示,比如骨骼区域。第二,我们关注到重建滤波核对于CT图像的影响一样重要,而且和CT图像可视化有着相似的困扰,一个滤波核无法满足所有器官的诊断需要 [ 33 ] 。肺部需要更加锐利的滤波核确保细节,软组织需要更加平滑的滤波核抑制噪声,或许可以在之后研究中加入目前的组织感知网络中,在自适应地为器官选择恰当窗宽窗位的同时为其选择合适的滤波核,最终在一幅CT图像中包含多个滤波核、多个窗口设置,实现“All-in-one” [ 34 ] 的视觉效果。

Biography

周昊,在读硕士研究生,E-mail: moc.qq@5821499201

Funding Statement

国家自然科学基金(U21A6005,12226004,U1708261);国家重点研发计划(2020YFA0712200)

Funding Statement

Supported by National Natural Science Foundation of China (U21A6005, 12226004, U1708261)

References

1. Hsieh J. Computed Tomography: Principles, Design, Artifacts, and RecentAdvances. Bellingham, WA: SPIE PRESS; 2015. [ Google Scholar ]
2. Madmad T, Delinte N, De Vleeschouwer C. CNN-based morphological decomposition of X-ray images for details and defects contrast enhancement[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). June 19-25, 2021, Nashville, TN, USA. IEEE, 2021: 2170-80.
3. Lin WS, Ghinea G. Progress and opportunities in modelling justnoticeable difference (JND) for multimedia. IEEE Trans Multimed. 2022; 24 :3706–21. doi: 10.1109/TMM.2021.3106503. [ CrossRef ] [ Google Scholar ]
4. Mandell JC, Khurana B, Folio LR, et al. Clinical applications of a CT window blending algorithm: radio (relative attenuation-dependent image overlay) J Digit Imaging. 2017; 30 (3):358–68. doi: 10.1007/s10278-017-9941-1. [ PMC free article ] [ PubMed ] [ CrossRef ] [ Google Scholar ]
5. A, Snoeckx Lesion detection on a combined "All-in-One" window compared to conventional window settings in thoracic oncology chest CT examinations. Diagn Interv Imaging. 2020; 101 (1):25–33. doi: 10.1016/j.diii.2019.07.009. [ PubMed ] [ CrossRef ] [ Google Scholar ]
6. Abdellatif W, Vasan V, Kay FU, et al. Know your way around acute unenhanced CT during global iodinated contrast crisis: a refresher to ED radiologists. Emerg Radiol. 2022; 29 (6):1019–31. doi: 10.1007/s10140-022-02085-7. [ PMC free article ] [ PubMed ] [ CrossRef ] [ Google Scholar ]
7. Lehr JL, Capek P. Histogram equalization of CT images. Radiology. 1985; 154 (1):163–9. doi: 10.1148/radiology.154.1.3964935. [ PubMed ] [ CrossRef ] [ Google Scholar ]
8. Pizer SM, Amburn EP, Austin JD, et al. Adaptive histogram equalization and its variations. Comput Vis Graph Image Process. 1987; 39 (3):355–68. doi: 10.1016/S0734-189X(87)80186-X. [ CrossRef ] [ Google Scholar ]
9. Fayad LM, Jin YP, Laine AF, et al. Chest CT window settings with multiscale adaptive histogram equalization: pilot study. Radiology. 2002; 223 (3):845–52. doi: 10.1148/radiol.2233010943. [ PubMed ] [ CrossRef ] [ Google Scholar ]
10. Mi ng, Ze ng. Improving histogram-based image contrast enhancement using gray-level information histogram with application to Xray images. Optik. 2012; 123 (6):511–20. doi: 10.1016/j.ijleo.2011.05.017. [ CrossRef ] [ Google Scholar ]
11. Mary Shyni H, Chitra E. A comparative study of X-ray and ct images in covid-19 detection using image processing and deep learning techniques. Comput Methods Programs Biomed Update. 2022; 2 :100054. doi: 10.1016/j.cmpbup.2022.100054. [ PMC free article ] [ PubMed ] [ CrossRef ] [ Google Scholar ]
12. Figueiro Longo MG, Vuylsteke P, Tan CO, et al. "All-in-one"window/level whole-body computed tomography scan-A faster way to evaluate trauma cases. Am J Emerg Med. 2022; 62 :62–8. doi: 10.1016/j.ajem.2022.09.047. [ PubMed ] [ CrossRef ] [ Google Scholar ]
13. 马铭君. 基于深度学习的医学CT图像中器官与病灶分割算法研究[D]. 桂林: 广西师范大学, 2022.
14. Ronneberger O, Fischer P, Brox T. U-Net: Convolutional Networks for Biomedical Image Segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer, 2015: 234-241.
15. Çiçek Ö, Abdulkadir A, Lienkamp SS, et al. 3D U-net: learning dense volumetric segmentation from sparse annotation[C]//Medical Image Computing and Computer-Assisted Intervention-MICCAI 2016: 19th International Conference, Athens, Greece, October 17-21, 2016, Proceedings, Part Ⅱ. New York: ACM, 2016: 424-32.
16. Zhou ZW, Siddiquee MMR, Tajbakhsh N, et al. UNet++: a nested Unet architecture for medical image segmentation. Deep Learn Med Image Anal Multimodal Learn Clin Decis Support (2018) 2018; 11045 :3–11. [ PMC free article ] [ PubMed ] [ Google Scholar ]
17. Ma MJ, Xia HY, Tan YM, et al. HT-Net: hierarchical contextattention transformer network for medical ct image segmentation. Appl Intell. 2022; 52 (9):10692–705. doi: 10.1007/s10489-021-03010-0. [ CrossRef ] [ Google Scholar ]
18. Wang RS, Lei T, Cui RX, et al. Medical image segmentation using deep learning: a survey. IET Image Process. 2022; 16 (5):1243–67. doi: 10.1049/ipr2.12419. [ CrossRef ] [ Google Scholar ]
19. Aljabri M, AlGhamdi M. A review on the use of deep learning for medical images segmentation. Neurocomputing. 2022; 506 :311–35. doi: 10.1016/j.neucom.2022.07.070. [ CrossRef ] [ Google Scholar ]
20. Islam M, Khan KN, Khan MS. Evaluation of preprocessing techniques for U-net based automated liver segmentation[C]//2021 International Conference on Artificial Intelligence (ICAI). April 5-7, 2021, Islamabad, Pakistan. IEEE, 2021: 187-92.
21. Heidarian S, Afshar P, Enshaei N, et al. Wso-caps: diagnosis of lung infection from low and ultra-lowdose CT scans using capsule networks and windowsetting optimization[C]//2021 IEEE International Conference on Autonomous Systems (ICAS). August 11-13, 2021, Montreal, QC, Canada. IEEE, 2021: 1-5.
22. Berman M, Triki AR, Blaschko MB. The lovasz-softmax loss: a tractable surrogate for the optimization of the intersection-overunion measure in neural networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. June 18-23, 2018, Salt Lake City, UT, USA. IEEE, 2018: 4413-21.
23. Shibata T, Tanaka M, Okutomi M. Gradient-domain image reconstruction framework with intensity-range and base-structure constraints[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 27-30, 2016, Las Vegas, NV, USA. IEEE, 2016: 2745-53.
24. Khan IR, Rahardja S, Khan MM, et al. A tone-mapping technique based on histogram using a sensitivity model of the human visual system. IEEE Trans Ind Electron. 2018; 65 (4):3469–79. doi: 10.1109/TIE.2017.2760247. [ CrossRef ] [ Google Scholar ]
25. Liang ZT, Xu J, Zhang D, et al. A hybrid l1-l0 layer decomposition model for tone mapping[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. June 18-23, 2018, Salt Lake City, UT, USA. IEEE, 2018: 4758-66.
26. Mehmood A, Khan IR, Dawood H, et al. A non-uniform quantization scheme for visualization of CT images. Math Biosci Eng. 2021; 18 (4):4311–26. doi: 10.3934/mbe.2021216. [ PubMed ] [ CrossRef ] [ Google Scholar ]
27. Al-Ameen Z, Sulong G, Johar G. Enhancing the contrast of CT medical images by employing a novel image size dependent normalization technique. Int J Biosci Biotechnol. 2012; 4 (3):63–8. [ Google Scholar ]
28. Yu Han. A new image fusion performance metric based on visual information fidelity. Inf Fusion. 2013; 14 (2):127–35. doi: 10.1016/j.inffus.2011.08.002. [ CrossRef ] [ Google Scholar ]
29. Xydeas CS, Petrović V. Objective image fusion performance measure. Electron Lett. 2000; 36 (4):308. doi: 10.1049/el:20000267. [ CrossRef ] [ Google Scholar ]
30. Chen J, Lu Y, Yu Q, et al. TransUNet: transformers make strong encoders for medical image segmentation"[EB/OL]. 2021: arXiv: 2102.04306. https://arxiv.org/abs/2102.04306 ".
31. Huang XH, Deng ZF, Li DD, et al. MISSFormer: an effective transformer for 2D medical image segmentation. IEEE Trans Med Imaging. 2022; PP (99):1. [ PubMed ] [ Google Scholar ]
32. Li ZH, Li DH, Xu CB, et al. TFCNs: A CNN-Transformer Hybrid Network for Medical Image Segmentation[C]//International Conference on Artificial Neural Networks. Cham: Springer, 2022: 781-92.
33. Yang S, Kim EY, Ye JC. Continuous conversion of CT kernel using switchable CycleGAN with AdaIN. IEEE Trans Med Imaging. 2021; 40 (11):3015–29. doi: 10.1109/TMI.2021.3077615. [ PubMed ] [ CrossRef ] [ Google Scholar ]
34. Higashigaito K, Fischer G, Jungblut L, et al. Comparison of detection of trauma-related injuries using combined "all-in-one" fused images and conventionally reconstructed images in acute trauma CT. Eur Radiol. 2022; 32 (6):3903–11. doi: 10.1007/s00330-021-08473-w. [ PubMed ] [ CrossRef ] [ Google Scholar ]

Articles from Journal of Southern Medical University are provided here courtesy of Editorial Department of Journal of Southern Medical University