期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
多特征融合的乳腺癌组织病理学图像识别的方法 被引量:2
1
作者 乔世昌 胡红萍 +1 位作者 郝岩 白艳萍 《重庆理工大学学报(自然科学)》 CAS 北大核心 2022年第2期135-141,共7页
乳腺癌是全球女性常见的癌症类型之一,严重影响了女性的健康,乳腺癌组织病理学图像的识别已成为医学图像处理领域的研究热点。针对Bioimaging 2015数据集进行乳腺癌组织病理学图像的识别研究,将该数据集分为癌类与非癌类2种。实验提取... 乳腺癌是全球女性常见的癌症类型之一,严重影响了女性的健康,乳腺癌组织病理学图像的识别已成为医学图像处理领域的研究热点。针对Bioimaging 2015数据集进行乳腺癌组织病理学图像的识别研究,将该数据集分为癌类与非癌类2种。实验提取了乳腺癌组织病理学图像染色分离后4个方向上的灰度共生矩阵特征、小波特征及Tamura纹理特征,并根据颜色自动相关图提取了原始图像的颜色特征,同时也提取了染色分离前水平方向上的灰度共生矩阵特征作为纹理信息的补充,最后将提取到的特征进行融合,并输入到支持向量机分类器中,以实现乳腺癌组织病理学图像的识别,识别准确率达到了83.33%。 展开更多
关键词 乳腺组织病理图像 灰度共生矩阵 颜色自动相关图
下载PDF
融合多尺度特征和多重注意力的乳腺癌图像分类方法
2
作者 韩玉静 陈辉 《宁夏师范学院学报》 2023年第7期101-112,共12页
针对深度学习模型在乳腺癌辅助诊断中提取特征不充分以及分类准确率低等问题,提出一种融合多尺度特征和多重注意力的乳腺癌图像分类方法.首先在骨干网络Res2Net50中引入三重注意力模块,加强模型对重要特征的关注度;其次利用设计的多尺... 针对深度学习模型在乳腺癌辅助诊断中提取特征不充分以及分类准确率低等问题,提出一种融合多尺度特征和多重注意力的乳腺癌图像分类方法.首先在骨干网络Res2Net50中引入三重注意力模块,加强模型对重要特征的关注度;其次利用设计的多尺度特征融合模块充分融合图像的特征;最后利用宽度学习系统对融合后的特征向量进行分类.同时模型中运用迁移学习解决乳腺癌图像样本量不足引起的分类效果不佳等问题.实验结果表明该方法对于不同放大倍数下获取的病理图像具有较好的健壮性,有效地提高了深度学习模型对于乳腺癌诊断的性能. 展开更多
关键词 图像分类 乳腺组织病理图像 多重注意力 多尺度特征融合 迁移学习
下载PDF
自适应小数据集乳腺癌病理组织分类研究 被引量:2
3
作者 和青芳 王慧 程光 《计算机科学》 CSCD 北大核心 2021年第S01期67-73,84,共8页
针对乳腺癌病理组织图像数据普遍存在数据集规模小、良性和恶性样本数量分布不均衡、自动识别精度低的现状,利用深度可分离卷积、小卷积核堆叠、增深降维等技术,结合文中提出的"SoftMax+WF"设计具备合理深度和宽度、适应小数... 针对乳腺癌病理组织图像数据普遍存在数据集规模小、良性和恶性样本数量分布不均衡、自动识别精度低的现状,利用深度可分离卷积、小卷积核堆叠、增深降维等技术,结合文中提出的"SoftMax+WF"设计具备合理深度和宽度、适应小数据集、轻型的病理组织图像分类模型。在图像旋转、扭曲等传统增强数据方法基础上,采用随机不重复裁切法均衡良、恶性样本数量并扩充数据集。针对训练集中难以聚类的样本,提出"弱特征"概念、"弱特征"样本提取算法和自适应调整、二次训练算法改进模型训练。在参数设置和运行环境相同的条件下,进行8组比对实验,模型的准确率、敏感度、特异度均可达97%以上。实验结果证明文中设计的模型性能稳定,对小数据集和不均衡数据集具有较好的包容性和适应性。 展开更多
关键词 乳腺病理组织图像 自适应小数据集 弱特征 卷积神经网络 深度可分离卷积 深度学习
下载PDF
基于逐像素点深度卷积网络分割模型的上皮和间质组织分割 被引量:6
4
作者 骆小飞 徐军 陈佳梅 《自动化学报》 EI CSCD 北大核心 2017年第11期2003-2013,共11页
上皮和间质组织是乳腺组织病理图像中最基本的两种组织,约80%的乳腺肿瘤起源于乳腺上皮组织.为了构建基于乳腺组织病理图像分析的计算机辅助诊断系统和分析肿瘤微环境,上皮和间质组织的自动分割是重要的前提条件.本文构建一种基于逐像... 上皮和间质组织是乳腺组织病理图像中最基本的两种组织,约80%的乳腺肿瘤起源于乳腺上皮组织.为了构建基于乳腺组织病理图像分析的计算机辅助诊断系统和分析肿瘤微环境,上皮和间质组织的自动分割是重要的前提条件.本文构建一种基于逐像素点深度卷积网络(CN-PI)模型的上皮和间质组织的自动分割方法.1)以病理医生标注的两类区域边界附近具有类信息为标签的像素点为中心,构建包含该像素点上下文信息的正方形图像块的训练集.2)以每个正方形图像块包含的像素的彩色灰度值作为特征,以这些图像块中心像素类信息为标签训练CN模型.在测试阶段,在待分割的组织病理图像上逐像素点地取包含每个中心像素点上下文信息的正方形图像块,并输入到预先训练好的CN网络模型,以预测该图像块中心像素点的类信息.3)以每个图像块中心像素为基础,逐像素地遍历图像中的每一个像素,将预测结果作为该图像块中心像素点类信息的预测标签,实现对整幅图像的逐像素分割.实验表明,本文提出的CN-PI模型的性能比基于图像块分割的CN网络(CN-PA)模型表现出了更优越的性能. 展开更多
关键词 深度卷积网络 乳腺组织病理图像 上皮和间质组织分割 逐像素分割
下载PDF
基于条件生成对抗网络的乳腺上皮和间质区域自动分割
5
作者 张泽林 徐军 《计算机应用》 CSCD 北大核心 2020年第10期2910-2916,共7页
乳腺病理组织图像中上皮和间质区域的自动分割对乳腺癌的诊断和治疗具有非常重要的临床意义。但是由于乳腺组织病理图像中上皮和间质区域具有高度复杂性,因此一般的分割模型很难只根据提供的分割标记来有效地训练,并对两种区域进行快速... 乳腺病理组织图像中上皮和间质区域的自动分割对乳腺癌的诊断和治疗具有非常重要的临床意义。但是由于乳腺组织病理图像中上皮和间质区域具有高度复杂性,因此一般的分割模型很难只根据提供的分割标记来有效地训练,并对两种区域进行快速、准确的分割。为此,提出一种基于条件对抗网络(cGAN)的上皮和间质分割条件对抗网络(EPScGAN)模型。在EPScGAN中,判别器的判别机制为生成器的训练提供了一个可训练的损失函数,来更加准确地衡量出生成器网络的分割结果输出和真实标记之间的误差,从而更好地指导生成器的训练。从荷兰癌症研究所(NKI)和温哥华综合医院(VGH)两个机构提供的专家标记的乳腺病理图像数据集中随机裁剪出1286张尺寸为512×512的图像作为实验数据集,然后将该数据集按照7∶3的比例划分为训练集和测试集对EPScGAN模型进行训练和测试。结果表明,EPScGAN模型在测试集的平均交并比(mIoU)为78.12%,和其他6种流行的深度学习分割模型相比较,提出的EPScGAN具有更好的分割性能。 展开更多
关键词 深度学习 条件生成对抗网络 乳腺病理组织图像 上皮和间质区域 图像分割
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部