期刊文献+
共找到109篇文章
< 1 2 6 >
每页显示 20 50 100
智能搜索引擎中用户兴趣模型分析与研究 被引量:32
1
作者 蒋萍 崔志明 《微电子学与计算机》 CSCD 北大核心 2004年第11期24-26,共3页
用户兴趣模型是智能搜索引擎系统中的重要组成部分。本文提出一种新的方法,以动态询问的方式建立初始用户兴趣模型,通过分析、学习用户浏览行为历史,动态更新用户兴趣模型,有效地解决了用户兴趣的自适应变化。
关键词 智能搜索引擎 用户兴趣模型 页面访问挖掘
下载PDF
面向对象软件测试技术的研究与应用 被引量:10
2
作者 赵荣利 崔志明 陈建明 《计算机技术与发展》 2007年第1期15-17,共3页
面向对象软件测试是面向对象软件开发的重要一环,是保证软件质量提高软件可靠性的关键。结合传统软件测试的方法和技术,并针对面向对象软件所具有的特征,将面向对象软件测试层次划分为3层:类测试、类簇测试和系统测试,讨论了面向对象软... 面向对象软件测试是面向对象软件开发的重要一环,是保证软件质量提高软件可靠性的关键。结合传统软件测试的方法和技术,并针对面向对象软件所具有的特征,将面向对象软件测试层次划分为3层:类测试、类簇测试和系统测试,讨论了面向对象软件测试的测试方法和解决方案,并以销售系统为例,给出了相应层次的具体测试策略。 展开更多
关键词 面向对象 软件工程 软件测试 类测试 块分支图
下载PDF
遗传算法在Web关联挖掘中的应用研究 被引量:4
3
作者 汤亚玲 崔志明 《微电子学与计算机》 CSCD 北大核心 2006年第6期126-129,共4页
关联规则是描述Web用户行为特征的重要依据。传统的基于统计学的Web关联规则挖掘算法注重对现有数据的分析,不能针对Web关联挖掘的特点提供有效的预测手段和优化反馈措施。文章提出一种基于遗传算法的Web关联挖掘算法体系,实验证明它能... 关联规则是描述Web用户行为特征的重要依据。传统的基于统计学的Web关联规则挖掘算法注重对现有数据的分析,不能针对Web关联挖掘的特点提供有效的预测手段和优化反馈措施。文章提出一种基于遗传算法的Web关联挖掘算法体系,实验证明它能弥补传统Web关联挖掘算法的不足,为Web关联挖掘提供了一种新的思路。 展开更多
关键词 数据挖掘 Web关联规则 遗传算法 增量挖掘 机器学习
下载PDF
遗传算法在Web关联挖掘中的应用研究 被引量:4
4
作者 汤亚玲 崔志明 《微电子学与计算机》 CSCD 北大核心 2005年第10期4-6,11,共4页
关联规则是描述Web用户行为特征的重要依据。传统的基于统计学的Web关联规则挖掘算法注重对现有数据的分析,不能针对Web关联挖掘的特点提供有效的预测手段和优化反馈措施。本文提出一种基于遗传算法的Web关联挖掘算法体系,实验证明它能... 关联规则是描述Web用户行为特征的重要依据。传统的基于统计学的Web关联规则挖掘算法注重对现有数据的分析,不能针对Web关联挖掘的特点提供有效的预测手段和优化反馈措施。本文提出一种基于遗传算法的Web关联挖掘算法体系,实验证明它能弥补传统Web关联挖掘算法的不足,为Web关联挖掘提供了一种新的思路。 展开更多
关键词 数据挖掘 Web关联规则 遗传算法 增量挖掘 机器学习
下载PDF
基于Filter技术的Web个性化服务应用研究 被引量:13
5
作者 王鑫印 崔志明 《微机发展》 2003年第12期93-95,共3页
基于数据挖掘的Web个性化服务系统是一个应用于网站的后台服务软件,能够为网站管理者和访问者提供信息收集、分析或个性化页面服务。它具有智能性、安全性、可扩展性等特点,可广泛应用于商业或其他用途的网站系统。文中运用J2EE中的Fil... 基于数据挖掘的Web个性化服务系统是一个应用于网站的后台服务软件,能够为网站管理者和访问者提供信息收集、分析或个性化页面服务。它具有智能性、安全性、可扩展性等特点,可广泛应用于商业或其他用途的网站系统。文中运用J2EE中的Filter技术,针对Web个性化服务,提出了一种新的应用框架,并较细致地阐述了Filter的实现及配置的整个过程。采用Filter技术,能大大提高用户识别、会话识别的准确性,是实现个性化服务的理想方法。 展开更多
关键词 INTERNET Filter技术 WEB 个性化服务 数据挖掘 网站
下载PDF
一种基于特征信息的Blog自动文摘研究
6
作者 陈明 王邦军 +1 位作者 赵朋朋 崔志明 《计算机应用研究》 CSCD 北大核心 2011年第10期3760-3763,共4页
为了有效地对Blog进行摘要抽取,以一种合理的方式挑选出对Blog摘要抽取有帮助的评论,然后在考虑句子词频的基础上结合Blog的结构化信息和挑选出的评论信息来计算Blog句子权重。针对基于句子权重选择摘要句容易忽略次要主题的缺陷,提出... 为了有效地对Blog进行摘要抽取,以一种合理的方式挑选出对Blog摘要抽取有帮助的评论,然后在考虑句子词频的基础上结合Blog的结构化信息和挑选出的评论信息来计算Blog句子权重。针对基于句子权重选择摘要句容易忽略次要主题的缺陷,提出一种结合Blog段落形式特点进行二次摘要抽取的解决方法。在随机下载的Blog数据中进行了实验,该方法具有较好的覆盖性和概括性。 展开更多
关键词 博客摘要 评论 特征信息 主题覆盖
下载PDF
智能管理决策门户体系结构研究 被引量:1
7
作者 刘桂峰 崔志明 陈建明 《计算机技术与发展》 2007年第10期195-197,201,共4页
智能管理决策门户是一种将企业信息门户与商业智能技术集成在一起的新型解决方案。通过引入两级知识库、知识预生成、知识替换这三种机制,它能够满足用户对数据实时的、多样化的、动态的共享及交换的要求,而传统的商业智能技术则满足了... 智能管理决策门户是一种将企业信息门户与商业智能技术集成在一起的新型解决方案。通过引入两级知识库、知识预生成、知识替换这三种机制,它能够满足用户对数据实时的、多样化的、动态的共享及交换的要求,而传统的商业智能技术则满足了将数据转化为知识,进而为企业服务的要求。 展开更多
关键词 企业信息门户 商业智能 知识库 知识预生成
下载PDF
基于VTK的医学图像交互式三维测量技术研究 被引量:16
8
作者 袁杲 叶峰 +1 位作者 杨玲 谢明元 《计算机工程与设计》 CSCD 北大核心 2008年第13期3549-3550,F0003,共3页
VTK是国外开发的集计算机图形、图像处理和可视化于一体的工具开发包,具有高度的灵活性、可移植性。提出一种使用VTK类库实现三维拾取的方法,能够将用户指定的屏幕坐标转化为三维物体坐标系下的空间坐标。最后通过牙齿模型的三维测量实... VTK是国外开发的集计算机图形、图像处理和可视化于一体的工具开发包,具有高度的灵活性、可移植性。提出一种使用VTK类库实现三维拾取的方法,能够将用户指定的屏幕坐标转化为三维物体坐标系下的空间坐标。最后通过牙齿模型的三维测量实验,证明这种方法具有良好的交互性和实时性。 展开更多
关键词 可视化工具包 三维测量 三维拾取 三维标注 交互式测量
下载PDF
Web论坛数据源增量爬虫的研究 被引量:5
9
作者 蔡欣宝 郭若飞 +1 位作者 赵朋朋 崔志明 《计算机工程》 CAS CSCD 北大核心 2010年第9期285-287,共3页
针对Web论坛站点结构复杂、内容更新快等特点,提出一种针对论坛的增量信息采集算法,使用站点地图重建技术及网页更新频繁度估计方法,根据站点地图选择有效的链接,按照网页更新频度确定网页的采集频度。实验结果表明,该方法是有效的。
关键词 WEB论坛 增量爬虫 站点地图 泊松模型
下载PDF
Deep Web爬虫爬行策略研究 被引量:13
10
作者 郑冬冬 崔志明 《计算机工程与设计》 CSCD 北大核心 2006年第17期3154-3158,共5页
如今Web上越来越多的信息可以通过查询接口来获得,为了获取某DeepWeb站点的页面用户不得不键入一系列的关键词集。由于没有直接指向DeepWeb页面的静态链接,当前大多搜索引擎不能发现和索引这些页面。然而,近来研究表明DeepWeb站点提供... 如今Web上越来越多的信息可以通过查询接口来获得,为了获取某DeepWeb站点的页面用户不得不键入一系列的关键词集。由于没有直接指向DeepWeb页面的静态链接,当前大多搜索引擎不能发现和索引这些页面。然而,近来研究表明DeepWeb站点提供的高质量的信息对许多用户来说是非常有价值。这里研究了怎样建立起一个有效的DeepWeb爬虫,它可以自动发现和下载DeepWeb页面。由于DeepWeb惟一“入口点”是查询接口,DeepWeb爬虫设计面对的主要挑战是怎样对查询接口自动产生有意义的查询。这里提出一种针对查询接口查询自动产生问题的理论框架。通过在实际DeepWeb站点上的实验证明了此方法是非常有效的。 展开更多
关键词 DEEP WEB DEEP WEB爬虫 查询选择 查询效能 适应性爬行算法
下载PDF
医学图像三维可视化中任意平面切片的研究与实现 被引量:4
11
作者 叶峰 吴健 +1 位作者 崔志明 王群 《计算机应用与软件》 CSCD 北大核心 2008年第12期141-143,共3页
对医学图像的三维重建技术进行研究,利用介于面绘制和体绘制之间的切片法来实现三维体数据可视化,并针对断层图像序列所生成三维体数据的切片方法进行了深入讨论。提出一种可操作性很强的切片方法,能较好地实现三维体数据中冠状面、矢... 对医学图像的三维重建技术进行研究,利用介于面绘制和体绘制之间的切片法来实现三维体数据可视化,并针对断层图像序列所生成三维体数据的切片方法进行了深入讨论。提出一种可操作性很强的切片方法,能较好地实现三维体数据中冠状面、矢状面、特别是任意平面的切片。同时,该方法已经用VC6.0结合VTK(Visualization Toolkit)编程进行实现,效果符合医学诊断要求,并得到了有关应用。 展开更多
关键词 VTK 切片方法 冠状面 矢状面 任意平面切片
下载PDF
元搜索引擎中基于用户兴趣的查询结果合成研究 被引量:8
12
作者 徐科 崔志明 郑冬冬 《微电子学与计算机》 CSCD 北大核心 2006年第7期199-201,共3页
元搜索引擎综合了多个搜索引擎的搜索结果,提高了搜索的覆盖率,但是它们返回的结果往往数目庞大,并且很多结果与用户查询并不相关,这直接影响了用户检索的质量,也大大提高了用户检索的代价。针对这一问题,文章提出了基于用户兴趣的结果... 元搜索引擎综合了多个搜索引擎的搜索结果,提高了搜索的覆盖率,但是它们返回的结果往往数目庞大,并且很多结果与用户查询并不相关,这直接影响了用户检索的质量,也大大提高了用户检索的代价。针对这一问题,文章提出了基于用户兴趣的结果合成算法。它根据用户兴趣对结果进行相似度计算和结果去重,从而为用户提供贴切的查询结果。实验表明,该算法提高了用户的检索效率和质量。 展开更多
关键词 个性化 元搜索引擎 查询结果合成 用户兴趣
下载PDF
基于Ontology的个性化元搜索引擎研究 被引量:15
13
作者 黄国景 崔志明 《微电子学与计算机》 CSCD 北大核心 2004年第12期100-103,共4页
文中提出了一种新的基于Ontology的个性化元搜索引擎系统模型,目的是解决现有搜索引擎很难考虑用户兴趣来实现用户个性化搜索问题。提出了基于Ontology的用户描述文件的表达方法和自动隐式学习算法,以及基于Ontology查询结果合成算法。... 文中提出了一种新的基于Ontology的个性化元搜索引擎系统模型,目的是解决现有搜索引擎很难考虑用户兴趣来实现用户个性化搜索问题。提出了基于Ontology的用户描述文件的表达方法和自动隐式学习算法,以及基于Ontology查询结果合成算法。全面描述了系统三层结构以及用户个性化搜索处理过程,并给出了对系统的评价标准。 展开更多
关键词 ONTOLOGY 个性化 元搜索引擎 用户描述文件 合成
下载PDF
改进的加密算法在医学图像上的应用 被引量:7
14
作者 陈珂 崔志明 《计算机工程与设计》 CSCD 北大核心 2009年第3期752-754,758,共4页
采用二维离散混沌模型,研究了从混沌序列到加密因子序列的映射方法。基于Rijndael算法的设计原理,并且结合加密因子序列的优良伪随机特性,提出一种基于Rijndael的改进加密算法。改进了Rijndael中的行置换、列置换和密钥编排方案,使之成... 采用二维离散混沌模型,研究了从混沌序列到加密因子序列的映射方法。基于Rijndael算法的设计原理,并且结合加密因子序列的优良伪随机特性,提出一种基于Rijndael的改进加密算法。改进了Rijndael中的行置换、列置换和密钥编排方案,使之成为替代与置换相结合的图像加密算法。实验结果表明,加密后的图像类似于白噪声的图像,达到了较为理想的置乱效果,特别是在不考虑噪声等外界影响前提下该算法可以实现无损加密,具有很好的应用前景,能很好地适用于要求高保密性的医学图像文件。 展开更多
关键词 二维离散混沌 加密因子序列 RIJNDAEL算法 密钥编排 图像加密
下载PDF
结构化信息的去重方法 被引量:3
15
作者 李林 刘桂峰 +1 位作者 赵朋朋 崔志明 《计算机工程》 CAS CSCD 北大核心 2009年第3期23-25,28,共4页
针对载有结构化信息的网页,提出一种基于学习的去重方法。通过先期准备的样本定义分类器,根据分类器对页面中结构化信息的不同属性字段进行分类和距离计算,计算出整个信息对象和已分类样本信息的距离,以这些距离与阈值的大小关系判断该... 针对载有结构化信息的网页,提出一种基于学习的去重方法。通过先期准备的样本定义分类器,根据分类器对页面中结构化信息的不同属性字段进行分类和距离计算,计算出整个信息对象和已分类样本信息的距离,以这些距离与阈值的大小关系判断该信息对象是否重复。 展开更多
关键词 相似性测度 去重 聚类
下载PDF
扩展的Deep Web质量估计模型研究 被引量:3
16
作者 胡鹏昱 苗忠义 +1 位作者 崔志明 方巍 《微电子学与计算机》 CSCD 北大核心 2008年第9期24-27,共4页
Deep Web中蕴涵了海量的高质量信息.文中从Deep Web数据源的功能属性和非功能属性两个方面对数据源的质量进行度量,建立了一种基于综合模糊评价指标体系的扩展的数据源质量估计模型.实验结果表明该模型得到的数据源质量排序序列和人工... Deep Web中蕴涵了海量的高质量信息.文中从Deep Web数据源的功能属性和非功能属性两个方面对数据源的质量进行度量,建立了一种基于综合模糊评价指标体系的扩展的数据源质量估计模型.实验结果表明该模型得到的数据源质量排序序列和人工排序序列的Kendall’s距离较扩展前有了很大提高,而且质量估计结果也能使数据源的选择得到较高精确度. 展开更多
关键词 DEEP WEB 综合模糊评价 质量指标
下载PDF
挖掘关联规则频繁项集的算法研究及其Prolog实现 被引量:4
17
作者 崔志明 汤亚玲 《微电子学与计算机》 CSCD 北大核心 2003年第9期8-10,33,共4页
挖掘事务库中的频繁项集是数据挖掘的重要任务之一。文章对求关联规则中频繁项集算法进行了分析,着重叙述了DHP算法的设计思想,并用Prolog语言实现,试图探讨用逻辑推理方法解决数据挖掘问题。
关键词 数据挖掘 数据库 知识发现 关联规则 频繁项集 算法 PROLOG语言
下载PDF
面向对象软件测试的技术研究 被引量:6
18
作者 赵荣利 崔志明 陈建明 《苏州大学学报(工科版)》 CAS 2007年第1期35-38,共4页
面向对象软件测试是面向对象软件开发的重要一环,是保证软件质量、提高软件可靠性的关键。针对面向对象软件具有的特征,分析了面向对象开发模型和测试层次划分,给出了一个面向对象的测试模型,并详细讨论了面向对象软件测试的测试方法和... 面向对象软件测试是面向对象软件开发的重要一环,是保证软件质量、提高软件可靠性的关键。针对面向对象软件具有的特征,分析了面向对象开发模型和测试层次划分,给出了一个面向对象的测试模型,并详细讨论了面向对象软件测试的测试方法和解决方案。 展开更多
关键词 面向对象 测试模型 软件测试 类测试 类族测试
下载PDF
基于搜索历史的用户兴趣模型的研究 被引量:11
19
作者 徐科 崔志明 《计算机技术与发展》 2006年第5期18-20,共3页
提出了一种新的基于搜索历史的用户兴趣模型,目的是解决现有搜索引擎很难考虑用户兴趣来实现用户个性化搜索以及用户兴趣很难更新的问题。提出了基于搜索历史的用户兴趣的表达方法和自动隐式学习算法。全面地描述了用户兴趣模型的建立... 提出了一种新的基于搜索历史的用户兴趣模型,目的是解决现有搜索引擎很难考虑用户兴趣来实现用户个性化搜索以及用户兴趣很难更新的问题。提出了基于搜索历史的用户兴趣的表达方法和自动隐式学习算法。全面地描述了用户兴趣模型的建立及通过自动隐式学习算法不断更新、优化模型的处理过程,并给出了对模型的评价标准。 展开更多
关键词 用户兴趣 个性化 搜索历史
下载PDF
图像增强技术在DSA减影中的应用 被引量:2
20
作者 王群 陈小松 崔志明 《计算机应用与软件》 CSCD 北大核心 2007年第10期48-49,69,共3页
从DSA(Digital Subtraction Angiography,数字减影血管造影)医学图像的特点出发,提出了在实现DSA减影时,减影前先进行对数变换,减影后再进行单阈值分割的解决方案来增强血管信息。该方案已用Delphi具体软件实现,图像效果符合医学诊断的... 从DSA(Digital Subtraction Angiography,数字减影血管造影)医学图像的特点出发,提出了在实现DSA减影时,减影前先进行对数变换,减影后再进行单阈值分割的解决方案来增强血管信息。该方案已用Delphi具体软件实现,图像效果符合医学诊断的要求,得到了医学专家的充分肯定。 展开更多
关键词 DSA 减影 对数变换 单阈值分割
下载PDF
上一页 1 2 6 下一页 到第
使用帮助 返回顶部