期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
一种基于支持向量机的场景标注方法
1
作者 曹攀 董洪伟 《软件导刊》 2017年第6期15-18,共4页
针对复杂场景中难以标注对象轮廓的问题,提出一种基于支持向量机的场景标注方法。首先采用结构森林法生成边缘概率,再运用分水岭算法将边缘概率转化成初始图像块。为避免过分分割,减少训练开支,利用UCM算法并选取适当的阈值提高图像块... 针对复杂场景中难以标注对象轮廓的问题,提出一种基于支持向量机的场景标注方法。首先采用结构森林法生成边缘概率,再运用分水岭算法将边缘概率转化成初始图像块。为避免过分分割,减少训练开支,利用UCM算法并选取适当的阈值提高图像块对轮廓的精确度,最后通过支持向量机训练分割的图像块进行场景标注。实验表明,在处理复杂的户外场景标注时,基于支持向量机的场景标注方法在像素精确度上表现良好,在对象轮廓上标注效果较好。 展开更多
关键词 对象轮廓 分水岭 支持向量机 场景标注
下载PDF
一种基于深度学习的多尺度深度网络的场景标注算法 被引量:6
2
作者 马成虎 董洪伟 《计算机工程与科学》 CSCD 北大核心 2016年第7期1356-1361,共6页
针对场景标注中如何产生良好的内部视觉信息表达和有效利用上下文语义信息两个至关重要的问题,提出一种基于深度学习的多尺度深度网络监督模型。与传统多尺度方法不同,模型主要由两个深度卷积网络组成:首先网络考虑全局信息,提取大尺度... 针对场景标注中如何产生良好的内部视觉信息表达和有效利用上下文语义信息两个至关重要的问题,提出一种基于深度学习的多尺度深度网络监督模型。与传统多尺度方法不同,模型主要由两个深度卷积网络组成:首先网络考虑全局信息,提取大尺度图像低层特征;其次网络利用图像局部信息,结合低层特征获取一组稠密的、完备的图像特征,有效地捕获图像像素的纹理特征、颜色特征和上下文信息。对比许多经典方法,该算法不依赖图像分割技术和人工制作特征,在Stanford Background Dataset取得了很好的效果。 展开更多
关键词 场景标注 多尺度深度网络 监督学习 深度卷积网络
下载PDF
英文电影场景标注方案设计及视听说学习应用
3
作者 闫洁 《时代文学(下半月)》 2010年第3期144-145,共2页
本文对多媒体定位检索,系统进行了简单介绍,并从选片标准、场景标注的必要性、标注原则、分类及其应用等几个方面探讨了"多媒体定位检索系统"在英语听说教学中的运用。
关键词 多媒体定位检索 场景标注 听说教学
原文传递
一种基于丰富视觉信息学习的3D场景物体标注算法 被引量:3
4
作者 吴培良 刘海东 孔令富 《小型微型计算机系统》 CSCD 北大核心 2017年第1期154-159,共6页
在智能服务机器人领域,根据场景的图像序列来完成场景重构及其中物体的检测与标注,是机器人场景理解、人机交互及后续服务的基础.本文针对基于RGB-D数据的3D场景物体标注展开研究,设计了一种充分融合颜色与深度数据的物体建模学习方法,... 在智能服务机器人领域,根据场景的图像序列来完成场景重构及其中物体的检测与标注,是机器人场景理解、人机交互及后续服务的基础.本文针对基于RGB-D数据的3D场景物体标注展开研究,设计了一种充分融合颜色与深度数据的物体建模学习方法,并将其应用于图像目标快速检测及3D场景物体标注.离线学习阶段,在构建物体检测模型时,加入了物体颜色的高斯模型,与物体的RGB-D HOG特征一同构成先验模型.在线阶段,首先对待检测的场景图像进行超像素分割,将对场景图像的处理从以像素为单位转变为以超像素区域为单位;同时计算每个超像素区域的高斯颜色模型,并与物体的先验高斯颜色模型比对,筛选得到物体所在的候选超像素区域;然后,在筛选出的超像素周围进行滑动窗口搜索,计算目标物体出现在场景图像中的概率图;最后,将该概率图映射到3D场景中对应体素,联合该体素及其周边体素构建马尔科夫随机场,进而进行3D场景物体标注.实验结果表明,由于引入了超像素处理,以及基于颜色模型比对的超像素筛选,所处理的数据量大大减少,在基本不损失精度的同时,算法效率明显提高. 展开更多
关键词 目标物体识别 RGB-D HOG特征 高斯颜色先验模型 超像素分割 3D场景物体标注
下载PDF
基于形式概念分析的图像场景语义标注模型 被引量:1
5
作者 张素兰 张继福 +1 位作者 胡立华 褚萌 《计算机应用》 CSCD 北大核心 2015年第4期1093-1096,共4页
为生成有效表示图像场景语义的视觉词典,提高场景语义标注性能,提出一种基于形式概念分析(FCA)的图像场景语义标注模型。该方法首先将训练图像集与其初始的视觉词典抽象为形式背景,采用信息熵标识了各视觉单词的权重,并分别构造了各场... 为生成有效表示图像场景语义的视觉词典,提高场景语义标注性能,提出一种基于形式概念分析(FCA)的图像场景语义标注模型。该方法首先将训练图像集与其初始的视觉词典抽象为形式背景,采用信息熵标识了各视觉单词的权重,并分别构造了各场景类别概念格结构;然后再利用各视觉单词权重的均值刻画概念格内涵上各组合视觉单词标注图像的贡献,按照类别视觉词典生成阈值,从格结构上有效提取了标注各类场景图像语义的视觉词典;最后,利用K最近邻标注测试图像的场景语义。在Fei-Fei Scene 13类自然场景图像数据集上进行实验,并与Fei-Fei方法和Bai方法相比,结果表明该方法在β=0.05和γ=15时,标注分类精度更优。 展开更多
关键词 形式概念分析 内涵权重 视觉词袋 类别视觉词典 场景语义标注
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部