期刊文献+
共找到21篇文章
< 1 2 >
每页显示 20 50 100
Health Data Deduplication Using Window Chunking-Signature Encryption in Cloud
1
作者 G.Neelamegam P.Marikkannu 《Intelligent Automation & Soft Computing》 SCIE 2023年第4期1079-1093,共15页
Due to the development of technology in medicine,millions of health-related data such as scanning the images are generated.It is a great challenge to store the data and handle a massive volume of data.Healthcare data ... Due to the development of technology in medicine,millions of health-related data such as scanning the images are generated.It is a great challenge to store the data and handle a massive volume of data.Healthcare data is stored in the cloud-fog storage environments.This cloud-Fog based health model allows the users to get health-related data from different sources,and duplicated informa-tion is also available in the background.Therefore,it requires an additional sto-rage area,increase in data acquisition time,and insecure data replication in the environment.This paper is proposed to eliminate the de-duplication data using a window size chunking algorithm with a biased sampling-based bloomfilter and provide the health data security using the Advanced Signature-Based Encryp-tion(ASE)algorithm in the Fog-Cloud Environment(WCA-BF+ASE).This WCA-BF+ASE eliminates the duplicate copy of the data and minimizes its sto-rage space and maintenance cost.The data is also stored in an efficient and in a highly secured manner.The security level in the cloud storage environment Win-dows Chunking Algorithm(WSCA)has got 86.5%,two thresholds two divisors(TTTD)80%,Ordinal in Python(ORD)84.4%,Boom Filter(BF)82%,and the proposed work has got better security storage of 97%.And also,after applying the de-duplication process,the proposed method WCA-BF+ASE has required only less storage space for variousfile sizes of 10 KB for 200,400 MB has taken only 22 KB,and 600 MB has required 35 KB,800 MB has consumed only 38 KB,1000 MB has taken 40 KB of storage spaces. 展开更多
关键词 Health data ENCRYPTION chunks CLOUD FOG DEDUPLICATION bloomfilter algorithm 3:Generation of Key
下载PDF
自适应分块的改进最小费用网络流解缠算法
2
作者 张金翼 王辉 +2 位作者 吴思利 郑世超 顾约翰 《上海航天(中英文)》 CSCD 2024年第1期116-121,共6页
相位解缠是进行精确差分干涉测绘的关键步骤,在相位解缠算法中,最小费用网络流(MCF)是当前常用的算法,该算法具有精度高、限制残差点误差扩散、优先将误差限制在低相干区域的优点,但随着残差点数量的增多,其计算效率也随之降低。改进的... 相位解缠是进行精确差分干涉测绘的关键步骤,在相位解缠算法中,最小费用网络流(MCF)是当前常用的算法,该算法具有精度高、限制残差点误差扩散、优先将误差限制在低相干区域的优点,但随着残差点数量的增多,其计算效率也随之降低。改进的MCF算法通过对其做分块,有效提升了算法效率,但块尺寸的选取影响最后的准确度与效率。本文提出一种自适应分块的改进MCF解缠算法,通过自适应寻优的方式选取合适的分割块,将相干性较高的点集中在同一块内,使得在准确度不受过多影响的情况下有效地提升算法效率。 展开更多
关键词 相位解缠 最小费用网络流算法 分块 尺寸选择 自适应寻优
下载PDF
数据分块算法在定位差异数据时的作用分析
3
作者 黄文豪 齐德昱 +2 位作者 谢嵘 刘宇 张皓同 《计算机技术与发展》 2023年第10期22-27,共6页
差异数据定位在数据增量同步等领域得到了很好的应用。当下学者们将数据分块算法应用在差异数据定位中,提出了很多优秀的数据分块算法,并对各自算法的效率进行了论述和实验,但并没有从理论上论述数据分块算法在差异数据定位中的正确性... 差异数据定位在数据增量同步等领域得到了很好的应用。当下学者们将数据分块算法应用在差异数据定位中,提出了很多优秀的数据分块算法,并对各自算法的效率进行了论述和实验,但并没有从理论上论述数据分块算法在差异数据定位中的正确性。此外,定位到的差异数据的大小与数据分块算法的关系也没有进行理论分析,多是以实验结果来辅助说明。为此,文中对数据差异定位的过程进行抽象,对数据分块算法应用于该过程的正确性进行了论证,并对数据分块算法在数据差异定位中的作用进行分析。通过理论推导的方式,证明了数据分块算法在定位差异数据时的正确性,同时得出差异数据的大小与数据分块算法的关系。文中结论对设计应用于差异数据定位的数据分块算法有一定的参考意义。 展开更多
关键词 数据分块算法 差异数据定位 理论分析 数据增量同步 逻辑推理
下载PDF
AVirtual Cloud Storage Architecture for Enhanced Data Security
4
作者 M.Antony Joans Kumar C.Christopher Columbus +1 位作者 E.Ben George T.Ajith Bosco Raj 《Computer Systems Science & Engineering》 SCIE EI 2023年第2期1735-1747,共13页
The sensitive data stored in the public cloud by privileged users,such as corporate companies and government agencies are highly vulnerable in the hands of cloud providers and hackers.The proposed Virtual Cloud Storag... The sensitive data stored in the public cloud by privileged users,such as corporate companies and government agencies are highly vulnerable in the hands of cloud providers and hackers.The proposed Virtual Cloud Storage Archi-tecture is primarily concerned with data integrity and confidentiality,as well as availability.To provide confidentiality and availability,thefile to be stored in cloud storage should be encrypted using an auto-generated key and then encoded into distinct chunks.Hashing the encoded chunks ensured thefile integrity,and a newly proposed Circular Shift Chunk Allocation technique was used to determine the order of chunk storage.Thefile could be retrieved by performing the opera-tions in reverse.Using the regenerating code,the model could regenerate the missing and corrupted chunks from the cloud.The proposed architecture adds an extra layer of security while maintaining a reasonable response time and sto-rage capacity.Experimental results analysis show that the proposed model has been tested with storage space and response time for storage and retrieval.The VCSA model consumes 1.5x(150%)storage space.It was found that total storage required for the VCSA model is very low when compared with 2x Replication and completely satisfies the CIA model.The response time VCSA model was tested with different sizedfiles starting from 2 to 16 MB.The response time for storing and retrieving a 2 MBfile is 4.96 and 3.77 s respectively,and for a 16 MBfile,the response times are 11.06 s for storage and 5.6 s for retrieval. 展开更多
关键词 Erasure code regenerating code CRYPTOGRAPHY virtual cloud storage architecture circular shift chunk allocation algorithm
下载PDF
面向机器辅助翻译的汉语语块自动抽取研究 被引量:12
5
作者 姜柄圭 张秦龙 +1 位作者 谌贻荣 常宝宝 《中文信息学报》 CSCD 北大核心 2007年第1期9-16,共8页
本文提出了一种统计和规则相结合的语块抽取方法。本文使用Nagao串频统计算法进行基于词语的串频统计,进一步分别利用统计方法、语块边界过滤规则对2-gram到10-gram语块进行过滤,得到候选语块,取得了令人满意的结果。通过实验发现,在统... 本文提出了一种统计和规则相结合的语块抽取方法。本文使用Nagao串频统计算法进行基于词语的串频统计,进一步分别利用统计方法、语块边界过滤规则对2-gram到10-gram语块进行过滤,得到候选语块,取得了令人满意的结果。通过实验发现,在统计方法中互信息和信息熵相结合的方法较单一的互信息方法好;在语块边界规则过滤方法中语块左右边界规则和停用词对语块抽取的结果有较大影响。实验结果表明统计和过滤规则相结合的方法要优于纯粹的统计方法。应用本文方法,再辅以人工校对,可以方便地获取重复出现的多词语块。在机器辅助翻译系统中,使用现有的语块抽取方法抽取重复的语言单位,就可以方便地建设翻译记忆库,提高翻译的工作效率。 展开更多
关键词 人工智能 机器翻译 语块抽取 串频统计 内部结合 紧密度 信息熵 语块组合规则
下载PDF
基于字节指纹极值特征的数据分块算法 被引量:3
6
作者 孙继忠 马永强 李玉华 《计算机工程》 CAS CSCD 北大核心 2010年第8期69-70,73,共3页
针对基于内容的数据分块算法中基本滑动窗口算法不能确定最大数据块的问题,提出一种基于字节指纹极值特征的数据分块算法。算法以上一个块边界点为起点构建最大块长区间,通过定义字节指纹极值域半径函数F并利用函数F值的分布特性,以概率... 针对基于内容的数据分块算法中基本滑动窗口算法不能确定最大数据块的问题,提出一种基于字节指纹极值特征的数据分块算法。算法以上一个块边界点为起点构建最大块长区间,通过定义字节指纹极值域半径函数F并利用函数F值的分布特性,以概率1在允许的最大块长的区间内确定下一个块边界点。该算法克服了基本滑动窗口等分块算法不能确定最大分块长度的不足,其时间复杂度为O(n)。 展开更多
关键词 数据分块算法 哈希指纹 存储算法
下载PDF
一种基于公共词块的英文短文本相似度算法 被引量:7
7
作者 黄贤英 刘英涛 饶勤菲 《重庆理工大学学报(自然科学)》 CAS 2015年第8期88-93,共6页
短文本相似度计算是自然语言处理方面的研究热点,传统基于词项的文本相似度算法只考虑了词项因素,忽略了词序对短文本相似性的影响。为此提出了一种基于公共词块的短文本相似度计算方法,综合考虑了词项和词序因素,将基于词项重合的重叠... 短文本相似度计算是自然语言处理方面的研究热点,传统基于词项的文本相似度算法只考虑了词项因素,忽略了词序对短文本相似性的影响。为此提出了一种基于公共词块的短文本相似度计算方法,综合考虑了词项和词序因素,将基于词项重合的重叠相似度算法与公共词块间的词序相似度算法相结合,并采用自适应的加权组合方式得到短文本相似度值。实验结果显示:与传统算法相比,该算法在稳定性和F值方面都具有较好的结果。 展开更多
关键词 短文本 词序 公共词块 相似度算法
下载PDF
预抽取相对较近边界向量的选块算法 被引量:2
8
作者 孔波 刘小茂 +1 位作者 曹淑娟 苏展 《计算机工程与应用》 CSCD 北大核心 2006年第28期170-173,共4页
利用支持向量机中支持向量的稀疏性和支持向量分布于分划超平面周围的性质,该文提出了一种预抽取相对较近边界向量的选块算法的新算法,该算法减少了普通选块算法的迭代次数和提高了仅依靠相对较近边界向量的准确率,从而大大加快了支持... 利用支持向量机中支持向量的稀疏性和支持向量分布于分划超平面周围的性质,该文提出了一种预抽取相对较近边界向量的选块算法的新算法,该算法减少了普通选块算法的迭代次数和提高了仅依靠相对较近边界向量的准确率,从而大大加快了支持向量机的训练速度,且支持向量机的分类能力不受任何影响。 展开更多
关键词 支持向量机 相对较近边界向量 选块算法
下载PDF
基于分层语块分析的统计翻译研究 被引量:7
9
作者 魏玮 杜金华 徐波 《中文信息学报》 CSCD 北大核心 2007年第5期87-90,117,共5页
本文描述了一个基于分层语块分析的统计翻译模型。该模型在形式上不仅符合同步上下文无关文法,而且融合了基于条件随机场的英文语块分析知识,因此基于分层语块分析的统计翻译模型做到了将句法翻译模型和短语翻译模型有效地结合。该系统... 本文描述了一个基于分层语块分析的统计翻译模型。该模型在形式上不仅符合同步上下文无关文法,而且融合了基于条件随机场的英文语块分析知识,因此基于分层语块分析的统计翻译模型做到了将句法翻译模型和短语翻译模型有效地结合。该系统的解码算法改进了线图分析的CKY算法,融入了线性的N-gram语言模型。目前,本文主要针对中文-英文的口语翻译进行了一系列实验,并以国际口语评测IWSLT(International Workshopon Spoken Language Translation)为标准,在2005年的评测测试集上,BLEU和NIST得分均比统计短语翻译系统有所提高。 展开更多
关键词 人工智能 机器翻译 基于分层语块分析的统计翻译模型 条件随机场 CKY算法
下载PDF
基于块和分解的改进的支持向量机算法 被引量:2
10
作者 高宏宾 彭商濂 焦东升 《计算技术与自动化》 2005年第4期53-55,共3页
针对块算法和分解算法各自的特点,提出一种对一个样本点集合同时进行块算法和分解算法的算法,即对一个数据集合同时进行两个优化的方法,控制了块算法的工作集的规模,加快了分解算法的收敛速度。
关键词 支持向量机 块算法 分解算法 工作集
下载PDF
网格环境下基于分块的任务执行时间预测算法
11
作者 吉勤 李培峰 +1 位作者 朱巧明 马锋明 《计算机应用》 CSCD 北大核心 2009年第7期1874-1876,1889,共4页
针对当前已有预测算法不实时、对负载变化不敏感的问题,结合网格中任务的特点,提出新的基于分块的预测算法。该方法从子节点任务执行出发,提出把执行的任务分成两个部分,用前一部分的执行情况来预测剩下部分的执行时间。实验证明,该算... 针对当前已有预测算法不实时、对负载变化不敏感的问题,结合网格中任务的特点,提出新的基于分块的预测算法。该方法从子节点任务执行出发,提出把执行的任务分成两个部分,用前一部分的执行情况来预测剩下部分的执行时间。实验证明,该算法比已有预测算法有更高的效率和通用性。 展开更多
关键词 预测算法 网格 自调度 分块
下载PDF
云辅助P2P-VoD系统中一种邻居选择算法
12
作者 丛鑫 双锴 +2 位作者 苏森 杨放春 孙鑫 《通信学报》 EI CSCD 北大核心 2013年第5期176-183,共8页
提出了一种邻居选择算法,包括节点选择和块选择2个子算法。前者保证请求节点能够以较低的被拒绝概率发现提供视频数据的邻居节点;后者为节点以何种方式下载数据块提供依据,保证系统中视频数据块的高可用性。实验结果表明,提出的算法能... 提出了一种邻居选择算法,包括节点选择和块选择2个子算法。前者保证请求节点能够以较低的被拒绝概率发现提供视频数据的邻居节点;后者为节点以何种方式下载数据块提供依据,保证系统中视频数据块的高可用性。实验结果表明,提出的算法能进一步降低服务器带宽开销和节点请求拒绝率,并提升节点的下载速率。 展开更多
关键词 节点选择算法 块选择算法 云辅助 P2P-VOD
下载PDF
Co-training机器学习方法在中文组块识别中的应用 被引量:8
13
作者 刘世岳 李珩 +1 位作者 张俐 姚天顺 《中文信息学报》 CSCD 北大核心 2005年第3期73-79,共7页
采用半指导机器学习方法co training实现中文组块识别。首先明确了中文组块的定义,co training算法的形式化定义。文中提出了基于一致性的co training选取方法将增益的隐马尔可夫模型(TransductiveHMM)和基于转换规则的分类器(fnTBL)组... 采用半指导机器学习方法co training实现中文组块识别。首先明确了中文组块的定义,co training算法的形式化定义。文中提出了基于一致性的co training选取方法将增益的隐马尔可夫模型(TransductiveHMM)和基于转换规则的分类器(fnTBL)组合成一个分类体系,并与自我训练方法进行了比较,在小规模汉语树库语料和大规模未带标汉语语料上进行中文组块识别,实验结果要比单纯使用小规模的树库语料有所提高,F值分别达到了85 34%和83 4 1% ,分别提高了2 13%和7 2 1%。 展开更多
关键词 计算机应用 中文信息处理 co-training算法 中文组块 分类器
下载PDF
基于节点块序列约束的局部贝叶斯网络结构搜索算法 被引量:7
14
作者 王海羽 刘浩然 +2 位作者 张力悦 张春兰 刘彬 《自动化学报》 EI CSCD 北大核心 2020年第6期1210-1219,共10页
针对K2算法过度依赖节点序和节点序搜索算法评价节点序效率较低的问题,提出一种基于节点块序列约束的局部贝叶斯网络结构搜索算法,该算法首先通过评分定向构建定向支撑树结构,在此基础上构建节点块序列,然后利用节点块序列确定每个节点... 针对K2算法过度依赖节点序和节点序搜索算法评价节点序效率较低的问题,提出一种基于节点块序列约束的局部贝叶斯网络结构搜索算法,该算法首先通过评分定向构建定向支撑树结构,在此基础上构建节点块序列,然后利用节点块序列确定每个节点的潜在父节点集,通过搜索每个节点的父节点集构建网络结构,最后对该结构进行非法结构修正得到最优贝叶斯网络结构.利用标准网络将算法与几种不同类型的改进算法进行对比分析,验证该算法的有效性. 展开更多
关键词 贝叶斯网络结构学习 定向最大支撑树 节点块序列 K2 算法
下载PDF
基于两级分块的文件同步方法 被引量:2
15
作者 周平 刘晓洁 《计算机工程与设计》 CSCD 北大核心 2014年第3期755-759,共5页
针对Winnowing分块算法存在的分块效率较低以及分块粒度相对较粗等问题,提出了一种基于两级分块的文件同步方法(double-chunking file synchronization,DF-RSYNC)。该方法采用循环队列对每一个固定窗口内滑动块的局部字节指纹值进行存储... 针对Winnowing分块算法存在的分块效率较低以及分块粒度相对较粗等问题,提出了一种基于两级分块的文件同步方法(double-chunking file synchronization,DF-RSYNC)。该方法采用循环队列对每一个固定窗口内滑动块的局部字节指纹值进行存储,以避免对重叠部分滑块指纹值的重复计算,并采用分块粒度由粗到细的两级分块、两轮往返的同步算法,以提高差异检测的准确率,减少差异数据量。实验结果表明,该方法能够有效减少分块时间,提高差异计算的效率;能够更细粒度地检测到文件差异,从而提高了检重率。 展开更多
关键词 文件同步 局部字节指纹值 分块算法 两级分块 两轮往返
下载PDF
IPID隐蔽网络扫描的原理与实现 被引量:1
16
作者 赵秋 胡华平 余海燕 《计算机应用》 CSCD 北大核心 2005年第4期870-873,共4页
介绍了IPID(IPIdentification)隐蔽网络扫描原理,并在Windows操作系统下,设计和实 现IPID隐蔽网络扫描系统原型;为了提高网络扫描效率,提出了“分块二分算法”,并对其进行了性能 分析与比较。研究结果表明,“分块二分算法”是适合I... 介绍了IPID(IPIdentification)隐蔽网络扫描原理,并在Windows操作系统下,设计和实 现IPID隐蔽网络扫描系统原型;为了提高网络扫描效率,提出了“分块二分算法”,并对其进行了性能 分析与比较。研究结果表明,“分块二分算法”是适合IPID隐蔽网络扫描的,而是否合理设置两次取 IPID序列号之间等待的基本延时,将决定IPID隐蔽网络扫描的正确性和扫描速度。 展开更多
关键词 网络扫描 IPID隐蔽网络扫描 原始套接字 网络嗅探 二分算法 分块二分算法
下载PDF
异构环境下P2P直播流媒体调度算法研究 被引量:2
17
作者 陈华 宋建新 《电视技术》 北大核心 2012年第3期55-57,共3页
对节点上行带宽异构环境下的P2P流媒体系统数据块调度算法进行了研究,具体包括系统模型及相关标识,基于带宽感知的数据块调度算法研究和性能评价。通过研究发现,在设计数据块调度算法时充分利用带宽异构性,优先选择高上行带宽的节点,能... 对节点上行带宽异构环境下的P2P流媒体系统数据块调度算法进行了研究,具体包括系统模型及相关标识,基于带宽感知的数据块调度算法研究和性能评价。通过研究发现,在设计数据块调度算法时充分利用带宽异构性,优先选择高上行带宽的节点,能有效地降低平均块延时。 展开更多
关键词 流媒体 点对点 数据块 调度算法
下载PDF
CUBE计算中的MMST树以及BIT形成算法
18
作者 方曲祥 孙海涛 《计算机工程与应用》 CSCD 北大核心 2000年第5期1-3,11,共4页
首先介绍了联机分析处理(OLAP)中的CUBE运算符以及几种计算CUB的优化方法,然后分析了以减少10操作优化方法为主的MMST优化策略,并给出了形成MMST树的BIT算法以及伪代码。该BIT算法概念清晰,实现简捷快... 首先介绍了联机分析处理(OLAP)中的CUBE运算符以及几种计算CUB的优化方法,然后分析了以减少10操作优化方法为主的MMST优化策略,并给出了形成MMST树的BIT算法以及伪代码。该BIT算法概念清晰,实现简捷快速,在以MMST树为基础的CUBE计算中非常关键。 展开更多
关键词 联机分析处理 MMST树 BIT算法 CUBE 数据库
下载PDF
基于Hausdorff距离的支持向量机训练集选取方法
19
作者 彭四海 《航空兵器》 2007年第5期45-48,共4页
支持向量机是一种新的数据分析方法,应用到越来越多学习问题领域。支持向量机的训练速度和精度与训练集的选取有很大的关系,在对比分析分解算法、SMO(序列最小优化)算法和增量算法的特点和不足的基础上,提出了一种基于Hausdorff距离的... 支持向量机是一种新的数据分析方法,应用到越来越多学习问题领域。支持向量机的训练速度和精度与训练集的选取有很大的关系,在对比分析分解算法、SMO(序列最小优化)算法和增量算法的特点和不足的基础上,提出了一种基于Hausdorff距离的训练集的选取方法,利用Libsvm在几个标准数据库上对几种算法进行实验,结果表明,新的算法在速度和精度上具有较大的提高。 展开更多
关键词 支持向量机 HAUSDORFF距离 分解算法 SMO LIBSVM 增量算法
下载PDF
基于改进CDC的实验原始记录匹配算法
20
作者 蔡伊娜 陈新 +5 位作者 覃志武 王歆 包先雨 彭锦学 林泳奇 李俊霖 《深圳大学学报(理工版)》 CAS CSCD 北大核心 2022年第5期509-514,共6页
针对当前实验室检测报告的生成过程存在时间长和易出现偶然性差错等问题,提出基于栅栏因子的通用实验原始记录文件自动抓取技术.先通过计算文件整体hash值准确过滤当日已读取文件,再使用改进的内容可变长度分块(content-defined chunkin... 针对当前实验室检测报告的生成过程存在时间长和易出现偶然性差错等问题,提出基于栅栏因子的通用实验原始记录文件自动抓取技术.先通过计算文件整体hash值准确过滤当日已读取文件,再使用改进的内容可变长度分块(content-defined chunking,CDC)算法进行文本分块.该CDC算法改进之处主要体现在:设定滑动窗口下一单位为行与行间距之和的高度以及滑动窗口内字节大小的范围.待文本分块结束后,使用基于数据块索引的字符串匹配算法完成匹配.该字符串匹配算法结合数据块索引表构建模式串与数据块的映射关系,之后由模式串Pn通过数据块索引表快速匹配到相应数据块.使用海关实验室的实验原始记录文件进行测试,实验证明,该算法的内存占用量少且分块吞吐量更大. 展开更多
关键词 计算机应用 数据块 模式串 字符串匹配 实验原始记录 内容可变长度分块算法 实验室检测报告
下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部