首页 / 专利库 / 软件 / 数据处理 / 一种解压缩方法、电子设备及计算机可读存储介质

一种解压缩方法、电子设备及计算机可读存储介质

阅读:3发布:2020-06-28

专利汇可以提供一种解压缩方法、电子设备及计算机可读存储介质专利检索,专利查询,专利分析的服务。并且本 发明 实施例 涉及 数据处理 领域,公开了一种解压缩方法、 电子 设备及计算机可读存储介质。本 申请 的部分实施例中,解压缩方法包括:对待解压数据进行预解码,得到待解压数据的 块 信息,块信息指示待解压数据中的压缩块的 位置 ;根据块信息,将待解压数据划分为N个数据块,每个数据块中至少包括一个压缩块,N为正整数;并发地对每个数据块进行解压缩。该实施例中,提高了解压缩的速度。,下面是一种解压缩方法、电子设备及计算机可读存储介质专利的具体信息内容。

1.一种解压缩方法,其特征在于,包括:
对待解压数据进行预解码,得到所述待解压数据的信息,所述块信息指示所述待解压数据中的压缩块的位置
根据所述块信息,将所述待解压数据划分为N个数据块,每个数据块中至少包括一个压缩块,N为正整数;
并发地对每个所述数据块进行解压缩。
2.根据权利要求1所述的解压缩方法,其特征在于,所述对待解压数据进行预解码,得到所述待解压数据的块信息,具体包括:
对待解压数据进行预解码,确定各压缩块的块尾的位置信息;
根据所述各压缩块的块尾的位置信息,确定所述块信息。
3.根据权利要求2所述的解压缩方法,其特征在于,所述对待解压数据进行预解码,确定各压缩块的块尾的位置信息,具体包括:
根据所述待解压数据的编码表,对所述待解压数据中的字符进行码表匹配;
若字符匹配到的编码值为256,将所述字符的位置信息,作为当前压缩块的块尾的位置信息。
4.根据权利要求1所述的解压缩方法,其特征在于,所述根据所述块信息,将所述待解压数据划分为N个数据块,具体包括:
根据所述块信息,按照预设的合并规则,将所述待解压数据中的压缩块合并为N个所述数据块;
其中,合并后的所述数据块中,第i+1个数据块的第一个压缩块与第i个数据块的最后一个压缩块相同,1≤i<N。
5.根据权利要求4所述的解压缩方法,其特征在于,所述块信息还指示压缩块的顺序;
合并规则为:
根据所述压缩块的顺序,将第1个压缩块至第M个压缩块合并为一个数据块;
判断2M是否小于N;其中,M为正整数;
若确定是,将第M个压缩块至第2M个压缩块合并为一个数据块;令M=2M,返回执行判断
2M是否小于N的步骤;
若确定不是,将第M个压缩块至第N个压缩块合并为一个数据块。
6.根据权利要求1所述的解压缩方法,其特征在于,对第k个数据块的解压缩过程包括:
若确定k=1,从第一个压缩块开始解压缩,解压至最后一个压缩块的最后一个预定符号;
若确定1<k<N,从第一个压缩块的最后一个所述预定符号开始解压缩,解压至最后一个压缩块的最后一个所述预定符号;
若确定k=N,从第一个压缩块的最后一个所述预定符号开始解压缩,直至解压完最后一个压缩块。
7.根据权利要求1至6中任一项所述的解压缩方法,其特征在于,由分布式计算平台根据所述块信息,将所述待解压数据划分为N个数据块,并发地对每个所述数据块进行解压缩。
8.根据权利要求7所述的解压缩方法,其特征在于,所述分布式计算平台与Spark计算平台通信连接,所述分布式计算平台将各个所述数据块的解压缩数据传输至所述Spark计算平台。
9.一种电子设备,其特征在于,包括:至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至8中任一项所述的解压缩方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8中任一项所述的解压缩方法。

说明书全文

一种解压缩方法、电子设备及计算机可读存储介质

技术领域

[0001] 本发明实施例涉及数据处理领域,特别涉及一种解压缩方法、电子设备及计算机可读存储介质。

背景技术

[0002] 由于基于GZIP的数据压缩格式的压缩率高、业界成熟度高,被互联网和大数据领域广泛使用。例如,日常内容分发网络(Content Delivery Network,CDN)的海量访问日志通常被压缩成GZIP包存储,压缩率可达到5至6倍。通过网络将此格式数据流传输到大数据平台进行实时或离线分析,可极大提升网络传输效率和减少网络拥堵。
[0003] 然而,发明人发现现有技术中至少存在如下问题:基于GZIP的数据压缩格式的解压缩方法的解压缩速度太慢。

发明内容

[0004] 本发明实施方式的目的在于提供一种解压缩方法、电子设备及计算机可读存储介质,使得提高了解压缩速度。
[0005] 为解决上述技术问题,本发明的实施方式提供了一种解压缩方法,包括以下步骤:对待解压数据进行预解码,得到待解压数据的信息,块信息指示待解压数据中的压缩块的位置;根据块信息,将待解压数据划分为N个数据块,每个数据块中至少包括一个压缩块,N为正整数;并发地对每个数据块进行解压缩。
[0006] 本发明的实施方式还提供了一种电子设备,包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述实施方式提及的解压缩方法。
[0007] 本发明的实施方式还提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时实现上述实施方式提及的解压缩方法。
[0008] 本发明实施方式相对于现有技术而言,通过对待解压进行预解码,得到待解压数据的块信息,以便将待解压数据进行分块,以实现并行解压缩。由于并行地对各个划分后的数据块进行解压缩,相对于对整个文件进行解压缩,提高了解压缩速度,减少了解压的总延迟时间。
[0009] 另外,对待解压数据进行预解码,得到待解压数据的块信息,具体包括:对待解压数据进行预解码,确定各压缩块的块尾的位置信息;根据各压缩块的块尾的位置信息,确定块信息。
[0010] 另外,对待解压数据进行预解码,确定各压缩块的块尾的位置信息,具体包括:根据待解压数据的编码表,对待解压数据中的字符进行码表匹配;若字符匹配到的编码值为256,将字符的位置信息,作为当前压缩块的块尾的位置信息。该实现中,只定压缩块的结束字符,不进行距离位置替换,再分块后再并行解压缩,提高了解压缩速度。
[0011] 另外,根据块信息,将待解压数据划分为N个数据块,具体包括:根据块信息,按照预设的合并规则,将待解压数据中的压缩块合并为N个数据块;其中,合并后的数据块中,第i+1个数据块的第一个压缩块与第i个数据块的最后一个压缩块相同,1≤i<N。该实现中,各数据块冗余上一数据块的最后一个压缩块,确保数据块内的首个压缩块在解压缩时能够找到足够远距离的引用字符,完成正常的字符替换。
[0012] 另外,块信息还指示压缩块的顺序;合并规则为:根据压缩块的顺序,将第1个压缩块至第M个压缩块合并为一个数据块;判断2M是否小于N;其中,M为正整数;若确定是,将第M个压缩块至第2M个压缩块合并为一个数据块;令M=2M,返回执行判断2M是否小于N的步骤;若确定不是,将第M个压缩块至第N个压缩块合并为一个数据块。该实现中,按照各压缩块的顺序进行合并,保证了后续并行解压缩时压缩块与压缩块之间内容的连续性。
[0013] 另外,对第k个数据块的解压缩过程包括:若确定k=1,从第一个压缩块开始解压缩,解压至最后一个压缩块的最后一个预定符号;若确定1<k<N,从第一个压缩块的最后一个预定符号开始解压缩,解压至最后一个压缩块的最后一个预定符号;若确定k=N,从第一个压缩块的最后一个预定符号开始解压缩,直至解压完最后一个压缩块。该实现中,保证解压缩后各数据块内容的完整性,为hadoop平台和流式计算集群(Spark计算平台)的无缝集成提供了基础
[0014] 另外,由分布式计算平台根据块信息,将待解压数据划分为N个数据块,并发地对每个数据块进行解压缩。
[0015] 另外,分布式计算平台与Spark计算平台通信连接,分布式计算平台将各个数据块的解压缩数据传输至Spark计算平台。附图说明
[0016] 一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
[0017] 图1是根据本发明的第一实施方式的解压缩方法的流程图
[0018] 图2是根据本发明的第二实施方式的解压缩方法的流程图;
[0019] 图3是根据本发明的第三实施方式的解压缩装置的结构示意图;
[0020] 图4是根据本发明的第四实施方式的电子设备的结构示意图。

具体实施方式

[0021] 为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
[0022] 本发明的第一实施方式涉及一种解压缩方法,应用于电子设备,如服务器或终端。如图1所示,解压缩方法包括以下步骤:
[0023] 步骤101:对待解压数据进行预解码,得到待解压数据的块信息。
[0024] 具体地说,块信息指示待解压数据中的压缩块的位置。
[0025] 需要说明的是,块信息可以是压缩块的块头的位置信息,也可以是压缩块的块尾的位置信息,还可以是压缩块的块头的位置信息和块尾的位置信息,此处不作限制。
[0026] 在一个实施例中,块信息是压缩块的块尾的位置信息。具体地说,电子设备对待解压数据进行预解码,确定各压缩块的块尾的位置信息;根据各压缩块的块尾的位置信息,确定块信息。
[0027] 在一个实施例中,块尾的位置信息可以是压缩块的结束字符的寻址位置。具体地说,压缩块的结束字符的编码值为256,电子设备根据待解压数据的编码表,对待解压数据中的字符进行码表匹配;若字符匹配到的编码值为256,将字符的位置信息,作为当前压缩块的块尾的位置信息。
[0028] 假设,待解压数据是通过无损数据压缩算法(deflate算法)压缩得到的压缩文件(以下称为deflate文件),电子设备确定块信息的过程如下:首先,电子设备对deflate文件进行卸封装,即去除deflate文件中的头文件,保留deflate文件的压缩流,其中,头文件可以包括deflate文件的描述信息,描述信息可以指示deflate文件为动态压缩文件或静态压缩文件。然后,读取deflate文件的编码树并对压缩流进行初始预解码。对于预解码过程中解出的值无论大于还是小于256,都丢弃并向后继续解析;如果发现解出的值是256,说明压缩块已经结束,此时缓存该块的全部信息;按同样规则继续处理下一个块,直到解析出全部的块。其中,预解码过程通常为通过哈夫曼算法实现对编码树进行解码,得到编码表,然后通过lz77算法,根据编码表接触deflate文件的每个字符。该过程只判断读取的字符是否为256,不会对重复字符进行距离位置的替换,因此缓存出的分块中的内容依然为未进行完整解压的数据。经过本步骤,可以获取:未进行完整解压的压缩块和压缩块的结束字符的寻址地址。可选择的,在预解码的过程中,对各压缩块进行编号,使得可以得到各压缩块的ID序号。
[0029] 值得一提的是,压缩块的分离和压缩块的结束字符的寻址位置为后续实现并行解压提供了基础。
[0030] 值得一提的是,对各压缩快进行编号为后续的压缩块合并提供了基础。
[0031] 步骤102:根据块信息,将待解压数据划分为N个数据块。
[0032] 具体地说,每个数据块中至少包括一个压缩块,N为正整数。
[0033] 在一个实施例中,电子设备可以将每个压缩块作为一个数据块。
[0034] 在一个实施例中,可以由分布式计算平台根据块信息,将待解压数据划分为N个数据块,并发地对每个数据块进行解压缩。
[0035] 步骤103:并发地对每个数据块进行解压缩。
[0036] 具体地说,电子设备可以通过分布式计算平台对每个数据块并行地解压缩。根据每个数据块的解压缩数据,确定待解压数据最终的解压后文件。
[0037] 在一个实施例中,分布式计算平台与Spark计算平台通信连接,分布式计算平台将各个数据块的解压缩数据传输至Spark计算平台。
[0038] 需要说明的是,以上仅为举例说明,并不对本发明的技术方案构成限定。
[0039] 与现有技术相比,本实施方式中提供的解压缩方法,通过对待解压进行预解码,得到待解压数据的块信息,以便将待解压数据进行分块,以实现并行解压缩。由于并行地对各个划分后的数据块进行解压缩,相对于对整个文件进行解压缩,提高了解压缩速度,减少了解压的总延迟时间。
[0040] 本发明的第二实施方式涉及一种解压缩方法,本实施方式是对第一实施方式的步骤102和步骤103的举例说明。
[0041] 具体的说,如图2所示,在本实施方式中,包含步骤201至步骤203,其中,步骤201与第一实施方式中的步骤101大致相同,此处不再赘述。下面主要介绍不同之处:
[0042] 步骤201:对待解压数据进行预解码,得到待解压数据的块信息。
[0043] 步骤202:根据块信息,按照预设的合并规则,将待解压数据中的压缩块合并为N个数据块。
[0044] 具体地说,合并后的数据块中,第i+1个数据块的第一个压缩块与第i个数据块的最后一个压缩块相同,1≤i<N。
[0045] 值得一提的是,将多个压缩块合并为一个压缩块,可以避免电子设备内并行解压缩任务过多,占用电子设备的资源。
[0046] 在一个实施例中,块信息还指示压缩块的顺序,例如,块信息中还包括压缩块的编号,即ID序号,合并规则为:根据压缩块的顺序,将第1个压缩块至第M个压缩块合并为一个数据块;判断2M是否小于N;其中,M为正整数;若确定是,将第M个压缩块至第2M个压缩块合并为一个数据块;令M=2M,返回执行判断2M是否小于N的步骤;若确定不是,将第M个压缩块至第N个压缩块合并为一个数据块。
[0047] 需要说明的是,本领域技术人员可以理解,实际应用中,M可以根据各压缩块的数据大小,以及分布式计算平台的并行处理能确定,此处不做限制。
[0048] 值的一提的是,按照各压缩块的ID序号顺序进行合并,保证了后续并行解压缩时压缩块与压缩块之间内容的连续性。
[0049] 值得一提的是,各数据块冗余上一数据块的最后一个压缩块,确保数据块内的首个压缩块在解压缩时能够找到足够远距离的引用字符,完成正常的字符替换。
[0050] 假设,待解压数据为deflate文件(GZIP文件),分布式计算平台为hadoop平台。Hadoop平台根据各压缩块的ID序号,按顺序将预定数量的压缩块合并为合适大小的hadoop分区(数据块)。其中,预定数量可以根据需要设置。由于GZIP文件自身的压缩块的大小是几十K左右,而Hadoop的分区通常为64M,对每几十K的数据启动一个处理任务对大数据系统来说不是最优方案。因此,识别缓存全部块信息后,Hadoop平台要对压缩块进行相应合并。考虑到解压后数据量会翻几倍,本实施方式中,将100个连续的压缩块合成一个大集合,作为一个hadoop分区。每个hadoop分区提供该分区所包含的压缩块的个数、ID序号、压缩块内容等,作为Hadoop分区信息的一部分。
[0051] 其中,在将压缩块合并为hadoop分区时,可以根据各压缩块的ID序号,按顺序合并,如第一个hadoop分区为#1,#2,#3,#4,某hadoop分区为#8,#9,#10,#11,等等。按照压缩块的ID序号顺序进行合并的目的是保证在后续进行并行解压缩时,可以满足块与块之间内容存在连续性,继而顺利完成对于每个hadoop分块的解压缩。
[0052] 另外,在将各压缩块合并为hadoop分区时,还可以满足:每个hadoop分区的第一个压缩块为上一个hadoop分区的最后一个压缩块。在每个hadoop分区的开头(首个hadoop分区除外),冗余增加前一个hadoop分区的末尾块。如第一个hadoop分区为#1,#2,#3,#4共4个块,则第二个hadoop分区应包含#4,#5,#6,#7,#8,确保块#4包含在内;第三个hadoop分区应包含#8,#9,#10,#11,#12…,确保块#8包含在内,以此类推,目的是确保分区内的首块在解压时能找到足够远距离的引用字符,完成正常的字符替换。
[0053] 步骤203:并发地对每个数据块进行解压缩。
[0054] 具体地说,对第k个数据块的解压缩过程包括:若确定k=1,从第一个压缩块开始解压缩,解压至最后一个压缩块的最后一个预定符号;若确定1<k<N,从第一个压缩块的最后一个预定符号开始解压缩,解压至最后一个压缩块的最后一个预定符号;若确定k=N,从第一个压缩块的最后一个预定符号开始解压缩,直至解压完最后一个压缩块。
[0055] 需要说明的是,预定符号可以是换行符,也可以是其他指定符号,例如,冒号等,本实施方式不作限制。
[0056] 需要说明的是,电子设备可以通过LZ77算法对各数据块中的数据解压缩,也可以根据待解压数据的压缩算法,选择合适的解压算法,对各数据块中的数据进行解压缩,本实施方式不限制解压缩过程使用的算法。
[0057] 假设,预定符号为换行符。分布式计算平台在经过上一步骤形成hadoop分区后,获取分区信息列表,随后,对每个hadoop分区的内容进行并行解压,对于每一个hadoop分区的解压过程为:
[0058] (1)判断当前解压的hadoop分区是否为第一分区;如是第一分区,则从当前分区的第一个压缩块开始解码,截止至当前分区的最后一个压缩块的最后一个可见的换行符为止。位于最后一个换行符之后的字符串,被认为是不完整的,在当前分区被解压时丢弃,留给下一个分区处理。如不是第一分区,则进入下一步骤;
[0059] (2)判断当前解压的hadoop分区是否为最后一个分区。如不是最后一个分区,则从当前分区的第一个压缩块的最后一个可见的换行符开始解码,截止至最后一个压缩块的最后一个可见的换行符为止。即首压缩块的最后一个换行符之前的数据被认为是前一个分区已经包含处理过了。如是最后一个分区,则进入下一个步骤;
[0060] (3)从当前分区的第一个压缩块的最后一个可见的换行符开始解码,截止至最后一个压缩块完整解压。
[0061] 以上步骤的目的是解决hadoop分区里面解压后的内容无法直接用于后续RDD构造和大数据并发计算的问题。由于GZIP压缩特性,分配在每个分区里的压缩块,尤其是首块和尾块,无法保证首块的第一个字符正好是一条文本记录的行首字符,也无法保证尾块中的最后一个字符正好是一条文本记录的行尾字符。这种情况下,直接将分区内容交给后续的分布式计算有可能会出现系统报错等异常情况。通过以上步骤,基于每个hadoop分区的首个块和末尾块的最后一个换行符进行分割,即可保证分区内容的读取完整,继而可保证Spark计算平台能够构造基于内存的Spark RDD,即最小计算单位,最终实现GZIP文件并行解压,使得hadoop平台和流式计算集群(Spark计算平台)的无缝集成。
[0062] 发明人发现,现有基于GZIP的文件采集和大数据计算分析系统,其核心消耗在于对GZIP解压的过程。由于GZIP文件特有的封装头,以及压缩块的存储不是基于整字节存储,而是二进制流(bit流)的连续存储,由于流里面没有专提供每个压缩块的起止及汇总信息,因此无法在流中一次性获取所有块的列表信息,这些特性都使GZIP天然不支持hadoop分区,也不持并行读取和解压。天然不支持hadoop的分区分块特性,意味着即使大数据平台规模再庞大,物理机再多,CPU再多,也无法发挥优势。对于一个GZIP文件,解压阶段是无法做到缺省并行的多任务解压和计算,只能单核单进程解压,这一瓶颈极大限制了大数据平台的计算能力和使用效率。而本实施方式提供了解压缩方法,通过预解码获取压缩块的块信息,对hadoop平台解码过程进行了适应性改进,使得GZIP文件可以使用hadoop平台进行并行解码,提高了解码速度。
[0063] 值得一提的是,由于输入hadoop平台的数据为未解压的待压缩数据,相对于将解压后的数据输入hadoop平台进行分区的方式,提升了在hadoop平台上实时计算时的解压效率,通过快速预处理和缓存,实现了并行解压从而减少了解压的总延迟时间。压缩文件的大小越大,提升效率就越高。除此之外,降低了解压中间文件在Hadoop存储空间,降低约10倍以上。通过本实施方式,Hadoop平台和流式计算框架,如Spark计算平台无缝集成,大数据业务应用开发者只需关注业务的大规模分布式运算开发即可,而不会因为GZIP带来的技术限制而去关心如何提升解压效率等纯技术问题。
[0064] 需要说明的是,以上仅为举例说明,并不对本发明的技术方案构成限定。
[0065] 与现有技术相比,本实施方式中提供的解压缩方法,通过对待解压进行预解码,得到待解压数据的块信息,以便将待解压数据进行分块,以实现并行解压缩。由于并行地对各个划分后的数据块进行解压缩,相对于对整个文件进行解压缩,提高了解压缩速度,减少了解压的总延迟时间。除此之外,按照各压缩块的ID序号顺序进行合并,保证了后续并行解压缩时压缩块与压缩块之间内容的连续性。各数据块冗余上一数据块的最后一个压缩块,确保数据块内的首个压缩块在解压缩时能够找到足够远距离的引用字符,完成正常的字符替换。
[0066] 上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包括相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
[0067] 本发明的第三实施方式涉及一种解压缩装置,如图3所示,包括:预解码模块301、分块模块302和解压缩模块303。预解码模块301用于对待解压数据进行预解码,得到待解压数据的块信息,块信息指示待解压数据中的压缩块的位置。分块模块302用于根据块信息,将待解压数据划分为N个数据块,每个数据块中至少包括一个压缩块,N为正整数;解压缩模块303用于并发地对每个数据块进行解压缩。
[0068] 不难发现,本实施方式为与第一实施方式相对应的系统实施例,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
[0069] 值得一提的是,本实施方式中所涉及到的各模块均为逻辑模块,在实际应用中,一个逻辑单元可以是一个物理单元,也可以是一个物理单元的一部分,还可以以多个物理单元的组合实现。此外,为了突出本发明的创新部分,本实施方式中并没有将与解决本发明所提出的技术问题关系不太密切的单元引入,但这并不表明本实施方式中不存在其它的单元。
[0070] 本发明的第四实施方式涉及一种电子设备,如图4所示,包括:至少一个处理器401;以及,与至少一个处理器401通信连接的存储器402;其中,存储器402存储有可被至少一个处理器401执行的指令,指令被至少一个处理器401执行,以使至少一个处理器401能够执行上述实施方式提及的解压缩方法。
[0071] 该电子设备包括:一个或多个处理器401以及存储器402,图4中以一个处理器401为例。处理器401、存储器402可以通过总线或者其他方式连接,图4中以通过总线连接为例。存储器402作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。处理器401通过运行存储在存储器402中的非易失性软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述解压缩方法。
[0072] 存储器402可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储选项列表等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施方式中,存储器402可选包括相对于处理器401远程设置的存储器,这些远程存储器可以通过网络连接至外接设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
[0073] 一个或者多个模块存储在存储器402中,当被一个或者多个处理器401执行时,执行上述任意方法实施方式中的解压缩方法。
[0074] 上述产品可执行本申请实施方式所提供的方法,具备执行方法相应的功能模块和有益效果,未在本实施方式中详尽描述的技术细节,可参见本申请实施方式所提供的方法。
[0075] 本发明的第五实施方式涉及一种计算机可读存储介质,存储有计算机程序。计算机程序被处理器执行时实现上述方法实施例。
[0076] 即,本领域技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0077] 本领域的普通技术人员可以理解,上述各实施方式是实现本发明的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈