期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于多模态内镜图像的人工智能模型诊断胃肿瘤性病变研究(含视频)
1
作者
陶逍
吴练练
+2 位作者
杜泓柳
董泽华
于红刚
《中华消化内镜杂志》
CSCD
北大核心
2024年第9期690-696,共7页
目的构建一种基于多模态内镜图像数据的人工智能胃肿瘤性病变诊断模型,并将其诊断效能与基于单模态图像数据的模型及内镜医师诊断水平进行比较。方法收集武汉大学人民医院内镜中心2018年3月至2019年12月期间463例患者的3267张白光成像...
目的构建一种基于多模态内镜图像数据的人工智能胃肿瘤性病变诊断模型,并将其诊断效能与基于单模态图像数据的模型及内镜医师诊断水平进行比较。方法收集武汉大学人民医院内镜中心2018年3月至2019年12月期间463例患者的3267张白光成像和弱放大成像的胃肿瘤性病变及非肿瘤性病变图像,用于构建基于白光图像和弱放大图像的单模态模型(白光模型和弱放大模型)。将同一病变的白光和弱放大图像组合成图像对,用于构建多模态特征融合模型(多模态模型)。使用2020年3月至2021年3月间97例患者(102个病变)的696张图像作为图像测试集,比较单模态模型与多模态模型在图像水平和病变水平识别胃肿瘤性病变的诊断效能。收集2022年1月至2022年6月期间80例患者(80个病变)的视频片段,用于比较弱放大模型、多模态模型和7名内镜医师在在病变水平对胃肿瘤性病变的诊断效能。结果在图像测试集中,多模态模型在图像水平诊断胃肿瘤性病变的灵敏度、准确率分别为84.96%(576/678)、86.89%(1220/1289),优于弱放大模型的灵敏度[63.13%(113/179),χ^(2)=42.81,P<0.001]和准确率[80.59%(353/438),χ^(2)=10.33,P=0.001],同样优于白光模型的灵敏度[70.47%(74/105),χ^(2)=13.52,P<0.001]和准确率[67.82%(175/258),χ^(2)=57.27,P<0.001]。多模态模型在病变水平诊断的灵敏度、特异度和准确率分别为87.50%(28/32)、88.57%(62/70)、88.24%(90/102),特异度(χ^(2)=22.99,P<0.001)和准确率(χ^(2)=19.06,P<0.001)高于白光模型;但与弱放大模型间差异均无统计学意义(P>0.05)。在视频测试中,多模态模型在病变水平诊断胃肿瘤性病变的灵敏度、特异度和准确率分别为95.00%(19/20)、93.33%(56/60)和93.75%(75/80),分别优于内镜医师总体的77.14%(108/140)、79.29%(333/420)和78.75%(441/560),差异具有统计学意义(χ^(2)=18.62,P<0.001;χ^(2)=35.07,P<0.001;χ^(2)=53.12,P<0.001),且高于资深内镜医师的灵敏度[83.33%(50/60)],差异有统计学意义(χ^(2)=4.23,P=0.040)。结论构建的基于多模态内镜图像数据的智能胃肿瘤性病变诊断模型,在图片和视频测试集中均有较高表现,且在视频测试中优于内镜医师平均水平。
展开更多
关键词
人工智能
胃肿瘤性病变
弱放大成像
多模态
原文传递
题名
基于多模态内镜图像的人工智能模型诊断胃肿瘤性病变研究(含视频)
1
作者
陶逍
吴练练
杜泓柳
董泽华
于红刚
机构
武汉大学人民医院消化内科、消化系统疾病湖北省重点实验室
出处
《中华消化内镜杂志》
CSCD
北大核心
2024年第9期690-696,共7页
基金
国家自然科学基金(82202257)
武汉市人工智能示范应用场景项目(2022YYCJ01)
+1 种基金
武汉市知识创新专项-曙光计划项目(2022020801020482)
武汉大学深化校企改革项目。
文摘
目的构建一种基于多模态内镜图像数据的人工智能胃肿瘤性病变诊断模型,并将其诊断效能与基于单模态图像数据的模型及内镜医师诊断水平进行比较。方法收集武汉大学人民医院内镜中心2018年3月至2019年12月期间463例患者的3267张白光成像和弱放大成像的胃肿瘤性病变及非肿瘤性病变图像,用于构建基于白光图像和弱放大图像的单模态模型(白光模型和弱放大模型)。将同一病变的白光和弱放大图像组合成图像对,用于构建多模态特征融合模型(多模态模型)。使用2020年3月至2021年3月间97例患者(102个病变)的696张图像作为图像测试集,比较单模态模型与多模态模型在图像水平和病变水平识别胃肿瘤性病变的诊断效能。收集2022年1月至2022年6月期间80例患者(80个病变)的视频片段,用于比较弱放大模型、多模态模型和7名内镜医师在在病变水平对胃肿瘤性病变的诊断效能。结果在图像测试集中,多模态模型在图像水平诊断胃肿瘤性病变的灵敏度、准确率分别为84.96%(576/678)、86.89%(1220/1289),优于弱放大模型的灵敏度[63.13%(113/179),χ^(2)=42.81,P<0.001]和准确率[80.59%(353/438),χ^(2)=10.33,P=0.001],同样优于白光模型的灵敏度[70.47%(74/105),χ^(2)=13.52,P<0.001]和准确率[67.82%(175/258),χ^(2)=57.27,P<0.001]。多模态模型在病变水平诊断的灵敏度、特异度和准确率分别为87.50%(28/32)、88.57%(62/70)、88.24%(90/102),特异度(χ^(2)=22.99,P<0.001)和准确率(χ^(2)=19.06,P<0.001)高于白光模型;但与弱放大模型间差异均无统计学意义(P>0.05)。在视频测试中,多模态模型在病变水平诊断胃肿瘤性病变的灵敏度、特异度和准确率分别为95.00%(19/20)、93.33%(56/60)和93.75%(75/80),分别优于内镜医师总体的77.14%(108/140)、79.29%(333/420)和78.75%(441/560),差异具有统计学意义(χ^(2)=18.62,P<0.001;χ^(2)=35.07,P<0.001;χ^(2)=53.12,P<0.001),且高于资深内镜医师的灵敏度[83.33%(50/60)],差异有统计学意义(χ^(2)=4.23,P=0.040)。结论构建的基于多模态内镜图像数据的智能胃肿瘤性病变诊断模型,在图片和视频测试集中均有较高表现,且在视频测试中优于内镜医师平均水平。
关键词
人工智能
胃肿瘤性病变
弱放大成像
多模态
Keywords
Artificial intelligence
Gastric neoplasms
Weak magnifying endoscopy
Multi-modal
分类号
R735.2 [医药卫生—肿瘤]
原文传递
题名
作者
出处
发文年
被引量
操作
1
基于多模态内镜图像的人工智能模型诊断胃肿瘤性病变研究(含视频)
陶逍
吴练练
杜泓柳
董泽华
于红刚
《中华消化内镜杂志》
CSCD
北大核心
2024
0
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部