法律状态公告日
法律状态信息
法律状态
2022-06-03
公开
发明专利申请公布
技术领域
本发明属于医学人工智能领域,尤其是涉及一种基于改进性3D U-Net模型的学前儿童肺部影像感兴趣区域分割方法。
背景技术
计算机视觉技术常用于图像快速智能处理领域,如图像分类、目标检测和目标检索,计算机视觉模拟了人的视觉机制,具有检测速度快、成本低的优点。
近年来,随着深度学习在计算机视觉领域的应用,特别是在医学影像领域取得了突破性的进展,以数据驱动为基础的深度学习技术,让计算机通过影像学、医学图像处理技术结合计算机的分析计算,能够实现目标区域的全自动分割,医学图像中器官组织或病灶的分割不仅可以用于医学信息量化分析,辅助医生诊断;而且也可以进行三维重建,用于计算机手术引导。
如公开号为CN110097550A的中国专利文献公开了一种基于深度学习的医学图像分割方法,包括:获取历史磁共振成像MRI模态图像;将所述历史磁共振成像MRI模态图像划分为训练集和测试集;在下采样过程中,将训练集内的任一张所述历史磁共振成像MRI模态图像中的两层相邻的不同分辨率的特征层输入到多层次特征重提取和聚合的神经网络模型中,确定分割后的MRI模态图像;两层相邻的不同分辨率的特征层包括低分辨率的特征层和高分辨率的特征层;两层相邻的不同分辨率的特征层依次经过残差卷积单元、分辨率融合单元以及聚合单元,确定分割后的MRI模态图像。
公开号为CN112950582A的中国专利文献公开了一种基于深度学习的3D肺部病灶分割方法,通过获取肺结节dicom图像,对所述dicom图像进行预处理;将预处理过的dicom图像进行三维堆叠得到3D图像块,并对3D图像块进行裁剪;将裁剪后的3D图像通过预先训练的球面分割模型进行特征提取得到回归子图;对所述回归子图进行中心度和概率的乘积计算得到多个中心点坐标,通过中心点坐标得到回归的点的坐标,得到分割结果。
医生从CT影像中自动并准确地分割肺部感兴趣区域,从影像中获取三维肺部模型,并进行治疗方案的设计,对于进一步病灶检测至关重要。然而,对于儿童而言,在拍CT时多动,导致图像质量不如成人的问题,现有的分割方法对儿童肺部影像感兴趣区域的分割精度不高。
发明内容
本发明提供了一种基于改进性3D U-Net模型的学前儿童肺部影像感兴趣区域分割方法,可以缓解学前儿童拍CT时多动导致图像质量不如成人的问题,从而从CT影像中自动并准确地分割肺部感兴趣区域。
一种基于改进性3D U-Net模型的学前儿童肺部影像感兴趣区域分割方法,包括以下步骤:
(1)收集学前儿童患者的CT影像数据,对影像数据进行预处理;
(2)将预处理后的影像数据划分为训练集、验证集和测试集;
(3)构建分割模型,所述分割模型采用改进的3D U-Net网络模型,在3D U-Net网络模型的编码器和解码器之间设计一个通道化的Transformer模块,构建UCTransNet框架,来替代U-Net中的跳跃连接,以更好地融合编码器特性;
通道化的Transformer模块由多尺度通道融合子模块和多尺度通道注意力子模块组成;
(4)将预处理后的训练集送入到构建的分割模型中进行训练,利用预处理后的验证集对分割模型的超参数进行调整,得到训练完成的分割模型;
(5)将待分割的学前儿童肺部影像输入训练好的分割模型中,得到肺部影像的感兴趣区域。
步骤(1)中,所述的预处理包括对影像进行裁剪,裁减掉无关区域,对影像进行重采样,对影像进行尺度的归一化,采用中值滤波器滤除噪声。
步骤(2)中,将预处理后的影像数据按7:2:1划分为训练集、验证集和测试集。
步骤(3)中,所述的3D U-Net网络模型中设有5个编码器E
多尺度通道融合子模块包括2个步骤:首先是多尺度特征嵌入,然后使用多层感知器。
多尺度通道融合子模块的结构如下:
3D U-Net网络模型的前4个编码器E
多尺度通道注意力子模块的结构如下:
将第i级Transformer输出O
M
其中,L1和L2为2个线性层和ReLU算子的权重;使用单一线性层和Sigmoid函数来构建通道注意力图,结果向量用于重新校准或激发O
步骤(4)中,采用监督训练方法对分割模型进行训练。
与现有技术相比,本发明具有以下有益效果:
本发明通过在3D U-Net编码器(E1~E5)和解码器(D1~D4)之间设计一个通道化的Transformer模块CTrans构建UCTransNet框架,来替代U-Net中的跳跃连接(skipconnection)以更好地融合编码器特性,减少语义差距,从而实现精确的医学图像自动分割。
附图说明
图1为本发明一种基于改进性3D U-Net模型的学前儿童肺部影像感兴趣区域分割方法的流程图;
图2为本发明中分割模型的整体结构图;
图3为分割模型中多尺度通道融合子模块的网络结构示意图;
图4为分割模型中多尺度通道注意力子模块的网络结构图。
具体实施方式
下面结合附图和实施例对本发明做进一步详细描述,需要指出的是,以下所述实施例旨在便于对本发明的理解,而对其不起任何限定作用。
如图1所示,一种基于改进性3D U-Net模型的学前儿童肺部影像感兴趣区域分割方法,包括以下步骤:
1、图像预处理
收集学前儿童CT影像数据,对影像进行裁剪,裁减掉无关区域,对影像进行重采样,对影像进行尺度的归一化,采用中值滤波器滤除噪声。
2、数据分组
将70%的数据集作为训练集,20%的数据集作为验证集,10%的数据集作为测试集。
3、模型构建
如图2所示,构建分割模型,分割模型采用改进的3D U-Net网络模型。图中,E1~E5以及D1~D4部分分别构成了3D U-Net的编码器以及解码器。本发明通过在3D U-Net编码器(E
CTrans由两个模块组成:其中一个多尺度通道融合子模块用于与Transformer进行多尺度通道融合,另一个多通道注意力子模块用于更好地解决通道化的Transformer与U-Net解码器之间语义不一致的特征,以消除歧义。因此,本发明提出的由多尺度通道融合和多通道注意力组成的连接能够代替原有的skip connections,解决语义空白,实现精确的医学图像自动分割。
为了解决前面提到的skip connection问题,本发明提出了一种新的通道交叉融合Transformer—多尺度通道融合,利用Transformer的长依赖建模优势融合多尺度编码器特征。多尺度通道融合子模块包括2个步骤:首先是多尺度特征嵌入,最后使用多层感知器(MLP)。
多尺度通道融合子模块的网络结构如图3所示,给定4个解码器的输出T
多通道注意力子模块的网络结构如图4所示,数学上,将第i级Transformer输出O
M
其中,L1和L2为2个线性层和ReLU算子的权重。根据ECA-Net的经验表明,避免降维对学习通道注意力很重要,使用单一线性层和Sigmoid函数来构建通道注意力图。结果向量用于重新校准或激发O
本发明提出了一个新的视角来提高语义分割的性能,即通过更有效的特征融合和多尺度的通道交叉注意力来弥补low-level和high-level特征之间的语义和分辨率差距,以捕获更复杂的通道依赖。UCTransNet从通道角度重新思考Transformer自注意力机制的方法。
4、模型训练和分割测试
分割模型训练时,将训练集送入到改进的3D U-Net分割网络中;验证集对模型的超参数进行调整,使用优化器更新参数,对网络进行优化,对学习率进行自动调参,得到训练完成的分割网络;测试集用来估计学习过程完成之后的模型的泛化能力。
采用监督训练方法对模型进行训练,为了得到对应的影像标签,经验丰富的超声医师对CT影像中肺野区域进行勾画,随后另一位专家标签进行了验证,以确保其准确性。
5、评估阶段
对每位患者影像中肺野分割情况进行评估:对分割任务的评估,本质上是像素级别的分类问题。分割的准确率(Accuracy,ACC)用正确分类的像素个数(True Positive,TP)除以总像素个数。当模型在不包含肺野的区域输出一个分类时,计数为假阳性(FalsePositive,FP)。最终智能肺野分割模型在测试集上的分割性能采用了Dice系数、Jaccard准确率、平均表面距离(ASD)和霍夫距离(HD)进行评估。
以上所述的实施例对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的具体实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换,均应包含在本发明的保护范围之内。