期刊文献+
共找到15篇文章
< 1 >
每页显示 20 50 100
一种基于精确欧氏位置敏感哈希的目标检索方法 被引量:3
1
作者 赵永威 李弼程 高毫林 《应用科学学报》 EI CAS CSCD 北大核心 2012年第4期349-355,共7页
针对目标检索问题,常用方案是视觉词典法(bag of visual words,BoVW),但传统的BoVW方法具有时间效率低、内存消耗大以及视觉单词同义性和歧义性的问题.针对这些问题,该文提出一种基于精确欧氏位置敏感哈希(exact Euclidean locality sen... 针对目标检索问题,常用方案是视觉词典法(bag of visual words,BoVW),但传统的BoVW方法具有时间效率低、内存消耗大以及视觉单词同义性和歧义性的问题.针对这些问题,该文提出一种基于精确欧氏位置敏感哈希(exact Euclidean locality sensitive Hashing,E2LSH)的目标检索方法.首先,采用E2LSH对训练图像库的局部特征点进行聚类,生成1组支持动态扩充的随机化视觉词典组;然后,基于这组词典构建视觉词汇直方图和索引文件,并由tf-idf算法对词频向量重新分配权重;最后,将目标直方图特征与索引文件进行相似性匹配,完成目标检索.实验结果表明,相比于传统方法,该方法较大地提高了检索精度,对大规模数据库有较好的适用性. 展开更多
关键词 目标检索 视觉词典法 精确欧氏位置敏感哈希 tf-idf算法
下载PDF
基于特征降维和精确欧式局部敏感哈希的协同过滤推荐算法研究
2
作者 邹晓瑜 《无线互联科技》 2020年第12期139-142,共4页
为了解决传统协同过滤算法在大规模高维稀疏数据中计算复杂度高、耗时长的问题,文章提出了一种基于特征降维和精确欧式局部敏感哈希的协同过滤算法。通过组合主成分分析法与流形学习对数据进行特征降维后,利用构建候选集实现快速检索,... 为了解决传统协同过滤算法在大规模高维稀疏数据中计算复杂度高、耗时长的问题,文章提出了一种基于特征降维和精确欧式局部敏感哈希的协同过滤算法。通过组合主成分分析法与流形学习对数据进行特征降维后,利用构建候选集实现快速检索,最后利用加权融合策略得到预测评分。该算法的均方根误差与协同过滤推荐算法相近,但平均运行时间降低了约90.9%。实验结果表明,该方法在确保推荐结果准确性的前提下,可显著提升运行效率。 展开更多
关键词 特征降维 精确欧式局部敏感哈希 推荐算法
下载PDF
近似最近邻搜索算法——位置敏感哈希 被引量:8
3
作者 高毫林 徐旭 李弼程 《信息工程大学学报》 2013年第3期332-340,共9页
寻找查询点的最近邻是信息处理相关领域的主要任务之一。在数据规模较大时需要采用快速检索算法,常用的快速检索算法主要是基于树的算法,但是当数据点维数较高时,这些算法的效率会变低。位置敏感哈希是当前解决高维搜索的最快的算法,文... 寻找查询点的最近邻是信息处理相关领域的主要任务之一。在数据规模较大时需要采用快速检索算法,常用的快速检索算法主要是基于树的算法,但是当数据点维数较高时,这些算法的效率会变低。位置敏感哈希是当前解决高维搜索的最快的算法,文章对汉明空间、欧式空间下的位置敏感哈希算法的实现方案进行了详细分析,对算法中数据点冲突概率、空间时间消耗、参数调整对算法性能的影响进行了详尽的研究和试验,最后讨论算法的优点和缺点,说明了算法应用于视觉聚类的可能性。 展开更多
关键词 近似最近邻搜索 位置敏感哈希 精确欧式距离位置敏感哈希 视觉聚类
下载PDF
集成式位置敏感聚类方法
4
作者 彭天强 高毫林 《人工智能与机器人研究》 2016年第2期23-34,共12页
针对常用图像聚类尤其是图像视觉聚类方法聚类速度慢、不支持增量聚类的局限,提出了集成式位置敏感聚类方法。该方法首先根据聚类有效性指标估计合适的聚类数目,然后生成多重哈希函数,并用它们对各数据点进行映射得出多重桶标记,再对数... 针对常用图像聚类尤其是图像视觉聚类方法聚类速度慢、不支持增量聚类的局限,提出了集成式位置敏感聚类方法。该方法首先根据聚类有效性指标估计合适的聚类数目,然后生成多重哈希函数,并用它们对各数据点进行映射得出多重桶标记,再对数据集各桶标记进行聚类得出多个基划分,最后对多个基划分进行集成得出最终划分。实验结果表明,在准确率方面,集成式位置敏感聚类在人工数据上与k-means结合聚类集成的方法相当,在图像集上与k-means结合聚类集成的方法接近。但集成式位置敏感聚类的优点在于其聚类时间快、适合于增量聚类等。因此,集成式位置敏感聚类方法可以用于解决高维图像特征聚类问题。 展开更多
关键词 精确欧式空间位置敏感哈希 随机映射 图像聚类 聚类集成
下载PDF
指数矩耦合局部敏感哈希的图像伪造检测算法
5
作者 李建军 吴文亮 张福泉 《太赫兹科学与电子信息学报》 北大核心 2020年第4期679-686,共8页
为了解决图像伪造检测算法在定位篡改内容时忽略了不同颜色分量之间的关系,使其对图像特征描述不足,导致其识别结果中存在误检与漏检等情况,本文提出了基于多元指数矩与欧式局部敏感哈希的图像伪造检测算法。引入高斯低通滤波,消除可疑... 为了解决图像伪造检测算法在定位篡改内容时忽略了不同颜色分量之间的关系,使其对图像特征描述不足,导致其识别结果中存在误检与漏检等情况,本文提出了基于多元指数矩与欧式局部敏感哈希的图像伪造检测算法。引入高斯低通滤波,消除可疑图像中的噪声;随后,将滤波图像分割为一系列的重叠圆形子块,改善其对旋转等内容操作的鲁棒性;基于四元指数矩(QEM),计算每个圆形子块的QEM,以提取相应的鲁棒特征,将其组合成特征矢量;采用欧式局部敏感哈希机制,生成每个子块对应的哈希序列;计算任意两个相邻哈希元素之间的空间距离,通过与预设阈值比较,完成所有子块的匹配;最后,借助随机样本一致性方法来剔除错误匹配,通过形态学处理,定位出篡改内容。实验数据显示:较已有的伪造检测方法而言,在各种几何内容修改下,所提算法具有更高的伪造检测准确性。 展开更多
关键词 图像伪造检测 四元指数矩 欧式局部敏感哈希 高斯低通滤波 空间距离 随机样本一致性
下载PDF
基于哈希编码学习的图像检索方法 被引量:1
6
作者 左欣 沈继锋 +3 位作者 于化龙 高尚 徐丹 胡春龙 《江苏科技大学学报(自然科学版)》 CAS 北大核心 2015年第6期567-573,共7页
针对传统的位置敏感哈希编码低效的问题,提出一种监督学习框架下基于正交子空间的判别投影哈希函数学习的海明编码方法.该方法首先根据特征值的能量分布进行子空间分解,其次基于Fisher判别分析准则,利用样本的分布信息学习一组最佳投影... 针对传统的位置敏感哈希编码低效的问题,提出一种监督学习框架下基于正交子空间的判别投影哈希函数学习的海明编码方法.该方法首先根据特征值的能量分布进行子空间分解,其次基于Fisher判别分析准则,利用样本的分布信息学习一组最佳投影的哈希函数,实现原始特征空间向海明空间的紧致嵌入,最终生成一组紧凑且具有判别性的二进制编码,并用于图像检索.在公开数据集上的实验结果表明:该算法与其他经典算法相比,具有较好的稳定性,降低了内存消耗并提高了检索的平均准确率. 展开更多
关键词 位置敏感哈希 正交子空间 判别投影学习 视觉字典 空间金字塔
下载PDF
基于词典优化与空间一致性度量的目标检索 被引量:1
7
作者 赵永威 周苑 李弼程 《计算机研究与发展》 EI CSCD 北大核心 2016年第5期1043-1052,共10页
基于视觉词典模型(bag of visual words model,BoVWM)的目标检索存在时间效率低、词典区分性不强的问题,以及由于空间信息的缺失及量化误差等导致的视觉语义分辨力不强的问题.针对这些问题,提出了基于词典优化与空间一致性度量的目标检... 基于视觉词典模型(bag of visual words model,BoVWM)的目标检索存在时间效率低、词典区分性不强的问题,以及由于空间信息的缺失及量化误差等导致的视觉语义分辨力不强的问题.针对这些问题,提出了基于词典优化与空间一致性度量的目标检索方法.首先,该方法引入E2LSH(exact Euclidean locality sensitive hashing)过滤图像中的噪声和相似关键点,提高词典生成效率和质量;然后,引入卡方模型(chi-square model,CSM)移除词典中的视觉停用词增强视觉词典的区分性;最后,采用空间一致性度量准则进行目标检索并对初始结果进行K-近邻(K-nearest neighbors,K-NN)重排序.实验结果表明:新方法在一定程度上改善了视觉词典的质量,增强了视觉语义分辨能力,进而有效地提高目标检索性能. 展开更多
关键词 目标检索 视觉词典模型 精确欧氏位置敏感哈希 空间一致性度量 卡方模型
下载PDF
基于E^2LSH过滤与空间一致性度量的目标检索方法
8
作者 赵永威 李弼程 +1 位作者 彭天强 唐永旺 《四川大学学报(工程科学版)》 EI CAS CSCD 北大核心 2016年第2期169-175,共7页
为了解决传统视觉词典模型(bag of visual words model,Bo VWM)中存在的时间效率低、词典区分性不强的问题,以及由于空间信息的缺失及量化误差等导致的目标检索性能较低的问题。提出一种新的目标检索方法,首先引入精确欧氏位置敏感哈希(... 为了解决传统视觉词典模型(bag of visual words model,Bo VWM)中存在的时间效率低、词典区分性不强的问题,以及由于空间信息的缺失及量化误差等导致的目标检索性能较低的问题。提出一种新的目标检索方法,首先引入精确欧氏位置敏感哈希(exact euclidean locality sensitive hashing,E2LSH)过滤训练图像集中的噪声和相似关键点,提高词典生成效率和质量;然后,引入卡方模型(Chi-square model)移除词典中的视觉停用词增强视觉词典的区分性;最后,采用空间一致性度量准则进行目标检索并对初始结果进行K-近邻(K-nearest neighbors,K-NN)重排序。将提出的方法在数据库Oxford5K和Flickr1上进行目标检索,结果表明,新方法在一定程度上改善了视觉词典的质量,增强了视觉语义分辨能力,有效地提高目标检索性能。 展开更多
关键词 目标检索 视觉词典模型 精确欧氏位置敏感哈希 空间一致性度量 卡方模型
下载PDF
一种基于随机化视觉词典组和查询扩展的目标检索方法 被引量:9
9
作者 赵永威 李弼程 +1 位作者 彭天强 高毫林 《电子与信息学报》 EI CSCD 北大核心 2012年第5期1154-1161,共8页
在目标检索领域,当前主流的解决方案是视觉词典法(Bag of Visual Words,BoVW),然而,传统的BoVW方法具有时间效率低、内存消耗大以及视觉单词同义性和歧义性的问题。针对以上问题,该文提出了一种基于随机化视觉词典组和查询扩展的目标检... 在目标检索领域,当前主流的解决方案是视觉词典法(Bag of Visual Words,BoVW),然而,传统的BoVW方法具有时间效率低、内存消耗大以及视觉单词同义性和歧义性的问题。针对以上问题,该文提出了一种基于随机化视觉词典组和查询扩展的目标检索方法。首先,该方法采用精确欧氏位置敏感哈希(Exact Euclidean LocalitySensitive Hashing,E2LSH)对训练图像库的局部特征点进行聚类,生成一组支持动态扩充的随机化视觉词典组;然后,基于这组词典构建视觉词汇分布直方图和索引文件;最后,引入一种查询扩展策略完成目标检索。实验结果表明,与传统方法相比,该文方法有效地增强了目标对象的可区分性,能够较大地提高目标检索精度,同时,对大规模数据库有较好的适用性。 展开更多
关键词 目标检索 视觉词典法 随机化视觉词典组 精确欧氏位置敏感哈希 查询扩展
下载PDF
基于随机化视觉词典组和上下文语义信息的目标检索方法 被引量:5
10
作者 赵永威 郭志刚 +2 位作者 李弼程 高毫林 陈刚 《电子学报》 EI CAS CSCD 北大核心 2012年第12期2472-2480,共9页
传统的视觉词典法(Bag ofVisual Words,BoVW)具有时间效率低、内存消耗大以及视觉单词同义性和歧义性的问题,且当目标区域所包含的信息不能正确或不足以表达用户检索意图时就得不到理想的检索结果.针对这些问题,本文提出了基于随机化视... 传统的视觉词典法(Bag ofVisual Words,BoVW)具有时间效率低、内存消耗大以及视觉单词同义性和歧义性的问题,且当目标区域所包含的信息不能正确或不足以表达用户检索意图时就得不到理想的检索结果.针对这些问题,本文提出了基于随机化视觉词典组和上下文语义信息的目标检索方法.首先,该方法采用精确欧氏位置敏感哈希(Exact Euclidean Locality Sensitive Hashing,E2LSH)对局部特征点进行聚类,生成一组支持动态扩充的随机化视觉词典组;然后,利用查询目标及其周围的视觉单元构造包含上下文语义信息的目标模型;最后,引入K-L散度(Kullback-Leibler divergence)进行相似性度量完成目标检索.实验结果表明,新方法较好地提高了目标对象的可区分性,有效地提高了检索性能. 展开更多
关键词 目标检索 上下文语义信息 精确欧氏位置敏感哈希 随机化视觉词典组 K-L散度
下载PDF
基于E^2LSH-MKL的视觉语义概念检测 被引量:3
11
作者 张瑞杰 郭志刚 +1 位作者 李弼程 高毫林 《自动化学报》 EI CSCD 北大核心 2012年第10期1671-1678,共8页
多核学习方法(Multiple kernel learning,MKL)在视觉语义概念检测中有广泛应用,但传统多核学习大都采用线性平稳的核组合方式而无法准确刻画复杂的数据分布.本文将精确欧氏空间位置敏感哈希(Exact Euclidean locality sensitivehashing,... 多核学习方法(Multiple kernel learning,MKL)在视觉语义概念检测中有广泛应用,但传统多核学习大都采用线性平稳的核组合方式而无法准确刻画复杂的数据分布.本文将精确欧氏空间位置敏感哈希(Exact Euclidean locality sensitivehashing,E2LSH)算法用于聚类,结合非线性多核组合方法的优势,提出一种非线性非平稳的多核组合方法-E2LSH-MKL.该方法利用Hadamard内积实现对不同核函数的非线性加权,充分利用了不同核函数之间交互得到的信息;同时利用基于E2LSH哈希原理的聚类算法,先将原始图像数据集哈希聚类为若干图像子集,再根据不同核函数对各图像子集的相对贡献大小赋予各自不同的核权重,从而实现多核的非平稳加权以提高学习器性能;最后,把E2LSH-MKL应用于视觉语义概念检测.在Caltech-256和TRECVID2005数据集上的实验结果表明,新方法性能优于现有的几种多核学习方法. 展开更多
关键词 视觉语义概念 多核学习 精确欧氏空间位置敏感哈希算法 Hadamard内积
下载PDF
基于弱监督E2LSH和显著图加权的目标分类方法 被引量:2
12
作者 赵永威 李弼程 柯圣财 《电子与信息学报》 EI CSCD 北大核心 2016年第1期38-46,共9页
在目标分类领域,当前主流的目标分类方法是基于视觉词典模型,而时间效率低、视觉单词同义性和歧义性及单词空间信息的缺失等问题严重制约了其分类性能。针对这些问题,该文提出一种基于弱监督的精确位置敏感哈希(E2LSH)和显著图加权的目... 在目标分类领域,当前主流的目标分类方法是基于视觉词典模型,而时间效率低、视觉单词同义性和歧义性及单词空间信息的缺失等问题严重制约了其分类性能。针对这些问题,该文提出一种基于弱监督的精确位置敏感哈希(E2LSH)和显著图加权的目标分类方法。首先,引入E2LSH算法对训练图像集的特征点聚类生成一组视觉词典,并提出一种弱监督策略对E2LSH中哈希函数的选取进行监督,以降低其随机性,提高视觉词典的区分性。然后,利用GBVS(Graph-Based Visual Saliency)显著度检测算法对图像进行显著度检测,并依据单词所处区域的显著度值为其分配权重;最后,利用显著图加权的视觉语言模型完成目标分类。在数据集Caltech-256和Pascal VOC2007上的实验结果表明,所提方法能够较好地提高词典生成效率,提高目标表达的分辨能力,其目标分类性能优于当前主流方法。 展开更多
关键词 目标分类 视觉词典模型 精确位置敏感哈希 视觉显著图 视觉语言模型
下载PDF
一种基于随机化视觉词汇和聚类集成目标分类 被引量:1
13
作者 朱道广 李弼程 《太赫兹科学与电子信息学报》 2014年第2期276-283,共8页
针对传统的视觉词典法存在的时间复杂度高,视觉单词同义性、歧义性和高维局部特征聚类不稳定问题,提出了一种基于随机化视觉词汇和聚类集成的目标分类方法。采用精确欧式位置敏感哈希(E2LSH)对训练图像库的局部特征点进行哈希映射,生成... 针对传统的视觉词典法存在的时间复杂度高,视觉单词同义性、歧义性和高维局部特征聚类不稳定问题,提出了一种基于随机化视觉词汇和聚类集成的目标分类方法。采用精确欧式位置敏感哈希(E2LSH)对训练图像库的局部特征点进行哈希映射,生成一组随机化视觉词汇;然后,聚类集成这组随机化视觉词汇,构建随机化视觉词汇集成词典(RVVAD);最后,基于该词典构建图像的视觉单词直方图并使用支持向量机(SVM)分类器完成目标分类。实验结果表明,本文方法有效增强了词典的表达能力,提高了目标分类的准确率。 展开更多
关键词 目标分类 聚类集成 精确欧式位置敏感哈希 随机化视觉词汇
下载PDF
基于Spark的ISOMAP算法并行化
14
作者 石陆魁 袁彬 刘文浩 《中国科学技术大学学报》 CAS CSCD 北大核心 2016年第9期711-718,共8页
为了实现大数据环境下非线性高维数据的快速降维,提出了一种基于Spark的并行ISOMAP算法.在该算法中,为了快速构建邻域矩阵,设计并实现了基于精确欧式位置敏感哈希的近邻搜索并行算法;为了实现特征值的快速求解,设计并实现了基于幂法和... 为了实现大数据环境下非线性高维数据的快速降维,提出了一种基于Spark的并行ISOMAP算法.在该算法中,为了快速构建邻域矩阵,设计并实现了基于精确欧式位置敏感哈希的近邻搜索并行算法;为了实现特征值的快速求解,设计并实现了基于幂法和降阶法交替执行的特征值求解并行算法.为了进一步提高算法的性能,基于Spark的特性,利用Spark的稀疏向量、广播机制和缓存机制对并行ISOMAP算法进行了优化,减少了计算过程中的内存消耗和数据传输.在Swissroll数据集和S-curve数据集上的实验结果表明,基于Spark的并行ISOMAP算法通过并行执行和计算过程的优化,极大地提高了算法的执行效率,能够适用于大规模数据集的降维处理. 展开更多
关键词 ISOMAP SPARK 精确欧式位置敏感哈希 流形学习 大数据
下载PDF
有效的结构化P2P信息检索 被引量:1
15
作者 刘文娣 蔡明 《计算机工程与设计》 CSCD 北大核心 2009年第16期3787-3789,3819,共4页
在分析了以往P2P系统信息检索基础上,针对结构化P2P检索存在的问题,提出了一种有效的结构化P2P信息检索。结合利用向量空间模型(VSM)技术和位置敏感散列(LSH)技术,使得语义内容相似的文挡易于分布在相同的节点上,提高了搜索速度。同时... 在分析了以往P2P系统信息检索基础上,针对结构化P2P检索存在的问题,提出了一种有效的结构化P2P信息检索。结合利用向量空间模型(VSM)技术和位置敏感散列(LSH)技术,使得语义内容相似的文挡易于分布在相同的节点上,提高了搜索速度。同时采用了本体知识,增强对用户请求的语义理解,提高了搜索性能。 展开更多
关键词 P2P 信息检索 分布式哈希 向量空间模型 位置敏感散列
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部