The invention provides a method to a cloud storage of encrypted data, mainly involving repeated ciphertext data cloud storage and large data environment to detect and remove the field, compared to create the file identification data and cloud service providers database generated by Hashi on the document summary, whether the file get reproducible results if the repeat is different, upload file blocks or cancel the upload; if not repeat the file block, Hashi, generation of validation data after the final upload without the same file block of ciphertext data and label information. This operation in the ciphertext data deduplication and protect the confidentiality of data, and can resist the violence caused by the data block search attack file privacy, because the implementation of the two level data to weight, effectively reduce the network traffic and cloud service providers to resist the adverse attack.
【技术实现步骤摘要】
本专利技术涉及在云存储、大数据环境下的重复密文数据检测和删除领域。技术背景随着信息技术和网络技术的发展,大数据与海量数据已经成为数据中心的主要业务,而重复数据的删除与压缩是一种可以节约大量数据存储的技术。重复数据删除是一种压缩技术,通过识别重复内容,进行去重,并在对应的存储位置留下指针来最小化数据量;这个指针通过给定大小的数据模式进行哈希创建。对于租用云空间的用户来说,大量重复数据充斥在云空间内,不仅对检索造成麻烦,还浪费了宝贵的云资源,产生了额外开销。所以本专利技术将重复数据删除理论引入云存储中,从而帮助云租户在最大程度上利用云空间。用户将数据上传到云端时,对于一些隐私或者机密数据都会选择先进行加密,然后再上传密文数据。而想要对密文数据进行去重的话,将面临许多的技术难题。需要解决的首要问题是如何判断多个密文是否来自于相同的明文,即机密数据重复性检测问题。另外,机密数据重复性检测方案应提供完善的数据保密性功能,防止来自CSP内部或外部的攻击所造成的数据泄露。若一个具有较高最小熵的文件所包含的某些分块的最小熵很小,则攻击者可以通过暴力搜索攻击获得这些分块。恶意用户可以利用存储系统的特性将其转变为内容分发网络,达到滥用存储系统的目的。通过验证文件本身而不是其摘要来进行重复性检测,从而避免了系统带来的安全风险。实现了对数据块的加密保护,并同时实现了跨用户文件级客户端去重和本地数据块级客户端去重,可以避免对数据块的暴力搜索攻击。
技术实现思路
本专利技术所要解决的问题是针对云用户在云空间中的重复数据的检索删除,提出了云存储中一种加密数据的去重方法。本专利技术的目 ...
【技术保护点】
基于云存储中一种加密数据的去重方法,该方法涉及在云存储、大数据环境下的重复密文数据检测和删除领域,其特征是:在用户上传文件之前,对文件摘要进行哈希创建,生成文件标识数据,然后将文件标识数据上传到云服务商(CSP)处进行验证,确定用户有没有相同文件,若是有相同文件,则进行详细验证,最终上传不同的文件块或者在已经有相同文件存在的情况下取消上传;若没有相似的数据标识,则对文件进行分块、哈希、生成验证数据,然后将文件及验证数据一起加密得到密文数据和元数据,然后对密文块进行对比验证,最终只上传文件库中没有相同文件块的密文数据及标签信息,其具体的实施步骤如下:步骤1:生成文件标识,进行初步验证,具体的内容如下:用户的文件F,在上传之前是没有加密的,首对文件属性(property)包括文件类型、文件名、文件摘要等信息进行哈希,获得文件的属性标签:,如果在云空间内有相同的属性标签,则提示是否确定上传,如果继续上传,则进入后续过程步骤2:文件分块,并生成数据块的特征集,具体的内容如下:依据固定打下或者变长等分块方法,将文件F分成n个数据块,,然后计算每个数据块的哈希值即标识:表示文件F的第i个数据块的特 ...
【技术特征摘要】
1.基于云存储中一种加密数据的去重方法,该方法涉及在云存储、大数据环境下的重复密文数据检测和删除领域,其特征是:在用户上传文件之前,对文件摘要进行哈希创建,生成文件标识数据,然后将文件标识数据上传到云服务商(CSP)处进行验证,确定用户有没有相同文件,若是有相同文件,则进行详细验证,最终上传不同的文件块或者在已经有相同文件存在的情况下取消上传;若没有相似的数据标识,则对文件进行分块、哈希、生成验证数据,然后将文件及验证数据一起加密得到密文数据和元数据,然后对密文块进行对比验证,最终只上传文件库中没有相同文件块的密文数据及标签信息,其具体的实施步骤如下:步骤1:生成文件标识,进行初步验证,具体的内容如下:用户的文件F,在上传之前是没有加密的,首对文件属性(property)包括文件类型、文件名、文件摘要等信息进行哈希,获得文件的属性标签:,如果在云空间内有相同的属性标签,则提示是否确定上传,如果继续上传,则进入后续过程步骤2:文件分块,并生成数据块的特征集,具体的内容如下:依据固定打下或者变长等分块方法,将文件F分成n个数据块,,然后计算每个数据块的哈希值即标识:表示文件F的第i个数据块的特征,放入集合中步骤3:数据块及标识加密步骤4:生成元数据和验证标签步骤5:数据验证,更新元数据步骤6:数据去重步骤7:数据访问,具体的内容如下:当用户需要访问云端的数据时,从CSP获得数据F的密文和元数据,再利用存储与本地的根密钥和文件参数ft,fs即可生成密钥树,计算变换叶子节点密钥、解密出数据密钥以及解密数据块,得到数据F。2.根据权利要求1中的云存储中一种加密数据的去重方法,对步骤3数据块及标识加密,提出了以下计算过程:高度为p,具有n个叶子节点的密钥树,然后将叶子节点密钥转换为“变换叶子节点密钥”,以其作为控制密钥,其中:并依据安全参数随机选择一个根密钥,利用左右派生规则和逐级计算得到树叶节点密钥:然后对叶子节点计算变换叶子节点密钥:然后,采用AES算...
【专利技术属性】
技术研发人员:范勇,胡成华,
申请(专利权)人:四川用联信息技术有限公司,
类型:发明
国别省市:四川;51
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。