期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于卷积神经网络模型乳腺癌靶区自动分割的研究 被引量:5
1
作者 王沛沛 李华玲 +5 位作者 顾宵寰 张瞾玥 姜楠 李金凯 许晓燕 杨焱 《中国医学装备》 2021年第11期23-27,共5页
目的:分别基于生物图像分割体系结构U-net和V-net的卷积神经网络模型训练乳腺癌靶区,并评价其临床适用性和准确性。方法:选取医院收治的60例左侧乳腺癌保乳术后患者,按照随机数表法将其分为模型组和测试组,每组30例。所有患者的CT图像... 目的:分别基于生物图像分割体系结构U-net和V-net的卷积神经网络模型训练乳腺癌靶区,并评价其临床适用性和准确性。方法:选取医院收治的60例左侧乳腺癌保乳术后患者,按照随机数表法将其分为模型组和测试组,每组30例。所有患者的CT图像数据集均由同1位放射治疗医师参照肿瘤放射治疗协作组织(RTOG)标准勾画临床靶区(CTV),并由经验丰富的高级职称医师二次审查。模型组患者分别基于U-net和V-net的卷积神经网络两种模型训练CTV;测试组患者的CT影像用于测试两种模型CTV自动分割的准确性。采用配对t检验分析比较两种模型分割的形状Dice相似性系数(DSC)、豪斯多夫距离(HD)及平均最小距离(MDA)。结果:基于U-net模型自动分割的乳腺癌靶区的DSC值(0.918)大于基于V-net模型分割的DSC(0.899),且差异有统计学意义(t=5.883,P<0.001)。两种模型分割的乳腺癌靶区的HD分别为18.360 mm、20.408 mm,差异有统计学意义(t=-1.800,P<0.05)。两种模型勾画结果的MDA分别为1.393 mm、1.815 mm,差异有统计学意义(t=-5.354,P<0.001)。结论:两种自动分割模型的结果均能满足临床应用需要,可提高医师的工作效率以及靶区勾画的一致性。基于U-net训练的左侧乳腺癌保乳靶区勾画模型更加接近医师的勾画,更准确地实现了CTV的自动勾画。 展开更多
关键词 深度学习 卷积神经网络 U-net V-net 乳腺癌 靶区自动分割
下载PDF
深度学习在子宫内膜癌术后临床靶区自动分割中的应用
2
作者 薛娴 王凯玥 +8 位作者 梁大柱 丁静静 江萍 孙全富 程金生 戴相昆 付晓沙 朱静洋 周付根 《中国辐射卫生》 2024年第4期376-383,共8页
目的评估3种深度学习(DL)算法在子宫内膜癌(EC)术后患者高剂量率近距离放射治疗(high-dose-rate brachytherapy,HDR BT)中,自动分割临床靶区(CTV)的应用结果。方法数据集由306名子宫内膜癌术后患者的计算机断层扫描(CT)图像组成,按比例... 目的评估3种深度学习(DL)算法在子宫内膜癌(EC)术后患者高剂量率近距离放射治疗(high-dose-rate brachytherapy,HDR BT)中,自动分割临床靶区(CTV)的应用结果。方法数据集由306名子宫内膜癌术后患者的计算机断层扫描(CT)图像组成,按比例分为训练集(246例)、验证集(30例)和测试集(30例)。比较3种深度卷积神经网络模型(3D U-Net、3D Res U-Net和V-Net)在CTV分割上的性能。采用定量指标分别为戴斯相似性系数(DSC)、豪斯多夫距离(HD)、豪斯多夫距离第95百分位数(HD95%)和交并比(IoU)。结果在测试阶段中,3D U-Net、3D Res U-Net和V-Net分割CTV得到的DSC平均值分别为0.90±0.07、0.95±0.06和0.95±0.06;HD平均值(mm)分别为2.51±1.70、0.96±1.01和0.98±0.95;HD95%平均值(mm)分别为1.33±1.02、0.65±0.91和0.40±0.72,IoU平均值分别为0.85±0.11、0.91±0.09和0.92±0.09。其中,V-Net分割结果与高级临床医生勾画结果更接近,CTV的分割时间<3.2 s,节省了临床医生的工作时间。结论V-Net在CTV分割方面表现最佳,定量指标和临床评估均优于其他模型。该方法与基准真实值高度一致,有效减少医生间差异,缩短治疗时间。 展开更多
关键词 深度学习模型 子宫内膜癌术后 高剂量率近距离放射治疗 临床靶区自动分割
原文传递
基于深度学习多模态风格迁移技术CBCT图像肺癌靶区自动分割方法研究 被引量:2
3
作者 陈杰 王克强 +3 位作者 简建波 王鹏 郭志超 张文学 《中华放射肿瘤学杂志》 CSCD 北大核心 2022年第1期43-48,共6页
目的针对CBCT图像中肿瘤与周围组织对比度低的缺点, 研究一种适合于CBCT图像中中心型肺癌的自动分割方法。方法收集221例中心型肺癌患者, 其中176例行CT定位, 45例行强化CT定位。将强化CT图像分别设置为肺窗和纵隔窗, 并与首次CBCT验证... 目的针对CBCT图像中肿瘤与周围组织对比度低的缺点, 研究一种适合于CBCT图像中中心型肺癌的自动分割方法。方法收集221例中心型肺癌患者, 其中176例行CT定位, 45例行强化CT定位。将强化CT图像分别设置为肺窗和纵隔窗, 并与首次CBCT验证图像进行弹性配准获得配对数据集;然后将配对数据集传入cycleGAN网络进行风格迁移, 使得CBCT图像可分别转化为肺窗和纵隔窗下的"强化CT";最后经风格迁移后的图像被载入UNET-attention网络对大体肿瘤体积进行深度学习。通过戴斯相似性系数(DSC)、豪斯多夫距离(HD)和受试者工作特征曲线下面积(AUC)对分割结果进行评价。结果经风格迁移后肿瘤与周围组织对比度明显增强, 采用cycleGAN+UNET-attention网络的DSC值为0.78±0.05, HD值为9.22±3.42, AUC值为0.864。结论采用cycleGAN+UNET-attention网络可有效对CBCT图像中中心型肺癌进行自动分割。 展开更多
关键词 深度学习 风格迁移 靶区自动分割 肺癌
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部