期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
基于自编码器的多视图属性网络表示学习模型 被引量:4
1
作者 樊玮 王慧敏 邢艳 《计算机应用》 CSCD 北大核心 2021年第4期1064-1070,共7页
现有的大多数网络表示学习方法很难兼顾网络中丰富的结构信息和属性信息,导致其后续任务,如分类、聚类等的效果不佳。针对此问题,提出一种基于自编码器的多视图属性网络表示学习模型(AE-MVANR)。首先,将网络的拓扑结构信息转化为拓扑结... 现有的大多数网络表示学习方法很难兼顾网络中丰富的结构信息和属性信息,导致其后续任务,如分类、聚类等的效果不佳。针对此问题,提出一种基于自编码器的多视图属性网络表示学习模型(AE-MVANR)。首先,将网络的拓扑结构信息转化为拓扑结构视图(TSV),通过计算节点间相同属性共现频率来构造属性结构视图(ASV);然后,在两个视图上分别利用随机游走算法得到若干节点序列;最后,经过自编码器训练得到的序列,从而得到融合了结构信息和属性信息的节点表示向量。在几个真实数据集上进行了分类、聚类任务的大量实验,结果表明,所提AEMVANR优于常用的仅基于网络结构的和同时基于网络结构信息及节点属性信息的网络表示学习方法,具体来说该模型的分类准确率最高提升43.75%,而其聚类结果的标准化互信息(NMI)和轮廓系数(Silhouette Coefficient)指标最高增幅分别为137.95%和1 314.63%,戴维森堡丁指数(DBI)最大降幅达45.99%。 展开更多
关键词 网络表示学习 网络嵌入 节点表示向量 视图属性网络 自编码器
下载PDF
在表单界面实现对视图记录的删除操作
2
作者 郭富强 《渭南师范学院学报》 2003年第2期64-66,共3页
在"基表-视图-表单"的三层模式中,存在着复杂的数据关系.文章探讨该模式下,通过表单界面删除视图数据的两种方法,并充分考虑数据的一致和用户操作的方便直观.视图记录的编辑、添加设计亦可从中得到借鉴.
关键词 基表-视图-表单模式 视图属性 视图记录 删除
下载PDF
基于异质多视图主动学习的高光谱地物分类 被引量:3
3
作者 姚琼 徐翔 邹昆 《计算机应用与软件》 北大核心 2018年第2期1-6,43,共7页
高光谱遥感影像具有多源异质的属性特征,也面临着训练样本少、标记代价大的困难。拟提取空间形状、纹理等多种属性特征来构建多视图,开展基于异质多视图主动学习的高光谱地物分类研究。主要解决两个问题:1)提出一种新的基于多视图后验... 高光谱遥感影像具有多源异质的属性特征,也面临着训练样本少、标记代价大的困难。拟提取空间形状、纹理等多种属性特征来构建多视图,开展基于异质多视图主动学习的高光谱地物分类研究。主要解决两个问题:1)提出一种新的基于多视图后验概率差异最小(MPPD)的样本查询策略。每个视图根据多元逻辑回归分类器预测样本的类别条件概率;根据全概率公式计算多视图下每个样本的后验概率;挑选后验概率差异最小的样本作为信息含量最大的样本。2)提出一种基于空间多尺度形状结构、以及纹理特征的异质多视图的构建方式。实验结果表明,提出的算法能够加快学习函数的收敛速度,以少量的信息含量大的标记样本来提高学习器的预测性能。 展开更多
关键词 高光谱地物分类多视图主动学习多属性形态剖面Gabor
下载PDF
基于“属性视图”的RDB-to-RDF映射 被引量:1
4
作者 陈磊 解萍 吴海波 《吉林师范大学学报(自然科学版)》 2011年第2期67-70,共4页
对于语义网而言,它的成功有两个条件,一是要以现行的网络平台为基础,二是要充分利用当前的领域数据.关系数据库存储着大部分领域数据,针对关系模式与RDF的映射问题,文章介绍了一种新的方式,称为"属性视图".与Jena等一些系统... 对于语义网而言,它的成功有两个条件,一是要以现行的网络平台为基础,二是要充分利用当前的领域数据.关系数据库存储着大部分领域数据,针对关系模式与RDF的映射问题,文章介绍了一种新的方式,称为"属性视图".与Jena等一些系统中所使用的"属性表"不同,它是一种传统的关系模式视图,用这种视图来描述建立在关系数据库上的RDF(S)本体,能够使得在传统的关系数据库系统上实施一般的语义网应用,并且在必要的时候,可以利用这种视图将关系数据库中的表数据方便地转存到相应的RDF Store中,生成本体实例. 展开更多
关键词 属性视图 本体 RDF(S) SPARQL 查询重写
下载PDF
Context-attributed graph grammar framework for specifying visual languages
5
作者 邹阳 曾晓勤 +1 位作者 韩秀清 张康 《Journal of Southeast University(English Edition)》 EI CAS 2008年第4期455-461,共7页
Since the specifications of most of the existing context-sensitive graph grammars tend to be either too intricate or not intuitive, a novel context-sensitive graph grammar formalism, called context-attributed graph gr... Since the specifications of most of the existing context-sensitive graph grammars tend to be either too intricate or not intuitive, a novel context-sensitive graph grammar formalism, called context-attributed graph grammar(CAGG), is proposed. In order to resolve the embedding problem, context information of a graph production in the CAGG is represented in the form of context attributes of the nodes involved. Moreover, several properties of a set of confluent CAGG productions are characterized, and then an algorithm based on them is developed to decide whether or not a set of productions is confluent, which provides the foundation for the design of efficient parsing algorithms. It can also be shown through the comparison of CAGG with several typical context-sensitive graph grammars that CAGG is more succinct and, at the same time, more intuitive than the others, making it more suitably and effortlessly applicable to the specification of visual languages. 展开更多
关键词 visual language graph grammar context-attributed PARSING CONFLUENCE
下载PDF
Video learning based image classification method for object recognition
6
作者 LEE Hong-ro SHIN Yong-ju 《Journal of Central South University》 SCIE EI CAS 2013年第9期2399-2406,共8页
Automatic image classification is the first step toward semantic understanding of an object in the computer vision area.The key challenge of problem for accurate object recognition is the ability to extract the robust... Automatic image classification is the first step toward semantic understanding of an object in the computer vision area.The key challenge of problem for accurate object recognition is the ability to extract the robust features from various viewpoint images and rapidly calculate similarity between features in the image database or video stream.In order to solve these problems,an effective and rapid image classification method was presented for the object recognition based on the video learning technique.The optical-flow and RANSAC algorithm were used to acquire scene images from each video sequence.After the selection of scene images,the local maximum points on comer of object around local area were found using the Harris comer detection algorithm and the several attributes from local block around each feature point were calculated by using scale invariant feature transform (SIFT) for extracting local descriptor.Finally,the extracted local descriptor was learned to the three-dimensional pyramid match kernel.Experimental results show that our method can extract features in various multi-viewpoint images from query video and calculate a similarity between a query image and images in the database. 展开更多
关键词 image classification multi-viewpoint image feature extraction video learning
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部