期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
4
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
存储系统重复数据删除技术研究综述
被引量:
25
1
作者
谢平
《计算机科学》
CSCD
北大核心
2014年第1期22-30,42,共10页
目前企业对数据量不断增长的需求使得数据中心面临严峻的挑战。研究发现,存储系统中高达60%的数据是冗余的,如何缩减存储系统中的冗余数据受到越来越多科研人员的关注。重复数据删除技术利用CPU计算资源,通过数据块指纹对比能够有效地...
目前企业对数据量不断增长的需求使得数据中心面临严峻的挑战。研究发现,存储系统中高达60%的数据是冗余的,如何缩减存储系统中的冗余数据受到越来越多科研人员的关注。重复数据删除技术利用CPU计算资源,通过数据块指纹对比能够有效地减少数据存储空间,已成为工业界和学术界研究的热点。在分析和总结近10年重复数据删除技术文献后,首先通过分析卷级重删系统体系结构,阐述了重删系统的原理、实现机制和评价标准。然后结合数据规模行为对重删系统性能的影响,重点分析和总结了重删系统的各种性能改进技术。最后对各种应用场景的重删系统进行对比分析,给出了4个需要重点研究的方向,包括基于主存储环境的重删方案、基于分布式集群环境的重删方案、快速指纹查询优化技术以及智能数据检测技术。
展开更多
关键词
重
复数据
删
除
重
删
率
体系结构
元数据结构
I
O优化
下载PDF
职称材料
基于民航数据特性的重删固定长度分块方法
被引量:
1
2
作者
丁建立
李慧
曹卫东
《中国民航大学学报》
CAS
2022年第4期32-37,共6页
针对民航数据在容灾备份时存在存储数据重复的问题,提出一种基于民航数据特性的重删固定长度分块方法。该方法根据民航数据类型的一致性,结合固定长度分块与可变长度分块的优势,设计了一种分块策略索引表的数据结构,为同种类型的数据提...
针对民航数据在容灾备份时存在存储数据重复的问题,提出一种基于民航数据特性的重删固定长度分块方法。该方法根据民航数据类型的一致性,结合固定长度分块与可变长度分块的优势,设计了一种分块策略索引表的数据结构,为同种类型的数据提供分块策略,节省了分块时寻找数据块边界的时间,将备份时重复数据的模拟重删率提高到97.8%~99.3%,比固定长度分块方法高11.8%~12.5%,比可变长度分块方法高2.5%~3.0%;同时,为新的数据类型建立新的分块策略,便于后续数据流匹配,提高命中精度。
展开更多
关键词
民航数据
容灾备份
重
复数据
删
除
类型一致性
分块策略
模拟
重
删
率
下载PDF
职称材料
数据删重技术的发展研究
被引量:
1
3
作者
谷占忠
《信息通信》
2018年第1期158-159,共2页
当今是一个大数据的时代,随着互联网和移动智能设备的迅猛发展,海量数据每时每刻都在产生,为数据中心存储和网络存储环境提出了严峻的挑战。研究发现,特定存储集中通常存在高度重复的数据,而数据删重技术可以通过特定算法极大消除冗余数...
当今是一个大数据的时代,随着互联网和移动智能设备的迅猛发展,海量数据每时每刻都在产生,为数据中心存储和网络存储环境提出了严峻的挑战。研究发现,特定存储集中通常存在高度重复的数据,而数据删重技术可以通过特定算法极大消除冗余数据,可有效提高存储空间的利用率。自数据删重技术提出以来,一直是存储领域最热门的研究话题。文章首先阐述了数据删重技术的基本原理与分类,然后从指纹算法的改进、删重率的提升、平衡性能开销、提高数据可靠性、提高数据安全性、增强可扩展性等方面详细分析了数据删重技术的发展趋势,最后进行总结并展望了未来的研究方向。
展开更多
关键词
数据
删
重
指纹算法
删重率
性能开销
扩展性
下载PDF
职称材料
基于FSL数据集的去重性能分析
被引量:
4
4
作者
曹晖
张秦正
《电子科技大学学报》
EI
CAS
CSCD
北大核心
2018年第4期621-625,共5页
重复数据删除技术作为一种数据缩减技术,实现了对高度冗余数据集的压缩功能,可以有效地解决存储系统空间浪费所带来的成本开销问题。相较于过去大多针对小规模静态快照或是覆盖时间较短的快照的研究,该文基于从共享用户文件系统选取的...
重复数据删除技术作为一种数据缩减技术,实现了对高度冗余数据集的压缩功能,可以有效地解决存储系统空间浪费所带来的成本开销问题。相较于过去大多针对小规模静态快照或是覆盖时间较短的快照的研究,该文基于从共享用户文件系统选取的覆盖时间较长的大规模快照,从文件、数据块以及用户的角度研究备份数据集的特征,分析不同数据分块方法、策略下去重性能的优缺点,得到最高的重复数据删除率,为未来的重复数据删除系统设计提出建议。
展开更多
关键词
重
复数据
删
除
重
删
率
元数据
存储
下载PDF
职称材料
题名
存储系统重复数据删除技术研究综述
被引量:
25
1
作者
谢平
机构
青海师范大学计算机学院
华中科技大学计算机科学与技术学院
出处
《计算机科学》
CSCD
北大核心
2014年第1期22-30,42,共10页
基金
国家973重点基础研究发展计划(2011CB302303)资助
文摘
目前企业对数据量不断增长的需求使得数据中心面临严峻的挑战。研究发现,存储系统中高达60%的数据是冗余的,如何缩减存储系统中的冗余数据受到越来越多科研人员的关注。重复数据删除技术利用CPU计算资源,通过数据块指纹对比能够有效地减少数据存储空间,已成为工业界和学术界研究的热点。在分析和总结近10年重复数据删除技术文献后,首先通过分析卷级重删系统体系结构,阐述了重删系统的原理、实现机制和评价标准。然后结合数据规模行为对重删系统性能的影响,重点分析和总结了重删系统的各种性能改进技术。最后对各种应用场景的重删系统进行对比分析,给出了4个需要重点研究的方向,包括基于主存储环境的重删方案、基于分布式集群环境的重删方案、快速指纹查询优化技术以及智能数据检测技术。
关键词
重
复数据
删
除
重
删
率
体系结构
元数据结构
I
O优化
Keywords
Data deduplication, Deduplication ratio, System architecture, Metadata structure, I/O optimization
分类号
TP311 [自动化与计算机技术—计算机软件与理论]
下载PDF
职称材料
题名
基于民航数据特性的重删固定长度分块方法
被引量:
1
2
作者
丁建立
李慧
曹卫东
机构
中国民航大学计算机科学与技术学院
出处
《中国民航大学学报》
CAS
2022年第4期32-37,共6页
基金
国家自然科学基金项目(U1833114)
民航安全能力建设资金项目(SA2020280)。
文摘
针对民航数据在容灾备份时存在存储数据重复的问题,提出一种基于民航数据特性的重删固定长度分块方法。该方法根据民航数据类型的一致性,结合固定长度分块与可变长度分块的优势,设计了一种分块策略索引表的数据结构,为同种类型的数据提供分块策略,节省了分块时寻找数据块边界的时间,将备份时重复数据的模拟重删率提高到97.8%~99.3%,比固定长度分块方法高11.8%~12.5%,比可变长度分块方法高2.5%~3.0%;同时,为新的数据类型建立新的分块策略,便于后续数据流匹配,提高命中精度。
关键词
民航数据
容灾备份
重
复数据
删
除
类型一致性
分块策略
模拟
重
删
率
Keywords
civil aviation data
disaster recovery backup
data deduplication
type consistency
block strategy
simulated deduplication rate
分类号
V351.392 [航空宇航科学与技术—人机与环境工程]
TP392 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
数据删重技术的发展研究
被引量:
1
3
作者
谷占忠
机构
西安交通大学软件学院
出处
《信息通信》
2018年第1期158-159,共2页
文摘
当今是一个大数据的时代,随着互联网和移动智能设备的迅猛发展,海量数据每时每刻都在产生,为数据中心存储和网络存储环境提出了严峻的挑战。研究发现,特定存储集中通常存在高度重复的数据,而数据删重技术可以通过特定算法极大消除冗余数据,可有效提高存储空间的利用率。自数据删重技术提出以来,一直是存储领域最热门的研究话题。文章首先阐述了数据删重技术的基本原理与分类,然后从指纹算法的改进、删重率的提升、平衡性能开销、提高数据可靠性、提高数据安全性、增强可扩展性等方面详细分析了数据删重技术的发展趋势,最后进行总结并展望了未来的研究方向。
关键词
数据
删
重
指纹算法
删重率
性能开销
扩展性
分类号
TP333 [自动化与计算机技术—计算机系统结构]
下载PDF
职称材料
题名
基于FSL数据集的去重性能分析
被引量:
4
4
作者
曹晖
张秦正
机构
电子科技大学计算机科学与工程学院
出处
《电子科技大学学报》
EI
CAS
CSCD
北大核心
2018年第4期621-625,共5页
文摘
重复数据删除技术作为一种数据缩减技术,实现了对高度冗余数据集的压缩功能,可以有效地解决存储系统空间浪费所带来的成本开销问题。相较于过去大多针对小规模静态快照或是覆盖时间较短的快照的研究,该文基于从共享用户文件系统选取的覆盖时间较长的大规模快照,从文件、数据块以及用户的角度研究备份数据集的特征,分析不同数据分块方法、策略下去重性能的优缺点,得到最高的重复数据删除率,为未来的重复数据删除系统设计提出建议。
关键词
重
复数据
删
除
重
删
率
元数据
存储
Keywords
data deduplication
deduplication ratio
metadata
storage
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
存储系统重复数据删除技术研究综述
谢平
《计算机科学》
CSCD
北大核心
2014
25
下载PDF
职称材料
2
基于民航数据特性的重删固定长度分块方法
丁建立
李慧
曹卫东
《中国民航大学学报》
CAS
2022
1
下载PDF
职称材料
3
数据删重技术的发展研究
谷占忠
《信息通信》
2018
1
下载PDF
职称材料
4
基于FSL数据集的去重性能分析
曹晖
张秦正
《电子科技大学学报》
EI
CAS
CSCD
北大核心
2018
4
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部