Lzw字典压缩:
1978年,Ziv和Lempel开发了一种基于字典的被称为LZ78 的压缩算法,在LZ78中,字典是一个潜在的先前所见的短语的无限序列。后来由于自身限制,由Terry Welch在1984年提出的关于LZ78压缩算法的变种,他的编码器部署出单个字符,只是输出词典短语中的代号(或者说是代码)。
lzw的编码词典就像是一张转换表,用来存放每一项,每个表象分配一个代码,默认的是将0~255即8位的ASCII字符集进行了扩充,增加的符号用来表示创建的新的代码。扩充后的代码可以采用自己定义的位来表示,比如12位,15位等等。不过此时用的是数组存储,可定义默认的数组长度可以是2的12次方4096,或者是2的15次方32768。自己是用的队列,所以相当于是默认的可存放2的16次方65536个对象。
简单说明:
例如对于abababababababababab,字符a(97)和b(98)出现的次数很多,那么就可以将ab作为一个新的节点例如256存储,此时文件就相当于256,256,256。。。如果将ababab当作257,那么文件就会变为257,257.压缩的效果还是很明显的。
适用范围:
对于文件中字符重复出现次数多的压缩效果比较好。
效果展示

压缩前:

压缩后:

举例实现:
例如比较简单的abababab
压缩:

最后输出的是:a,b,256,257,c 压缩玩了以后就可以将字典扔掉,在解压的时候重新建立字典。
解压:
由于压缩的独特方法,那么解压时也有自己独特的解压方法,关键是:每一步都可以创建一个Dictionary类,这是由于压缩时方法决定的即:每次发现不认识的节点是就创建一个字典类,同时将前缀写进文件中。在解压的时候,每次读取的字符其实都是压缩时不认识后在创建新的字典类的同时也操作写进文件的这个动作的。例如读取了258,其实此次不仅可以先从字典中找出258对应的首个字符(只需知道首个,此规律可以总结出来),完善碎裂的最后元素的后缀,同时创建新的字典类如262,只是我用的是前缀当然是258,默认后缀为0,再读取下个字节时如256,得到256的首个字符作为将上次创建的262的后缀。实际上每步都可以创建新的字典类。
具体的步骤:

代码如下:
主函数:很简单
package 字典压缩;
import javax.swing.*;
public class LzwMain extends JFrame{
//定义按钮属性
JButton jb1=new JButton("压 缩");
JButton jb2=new JButton("解 压");
//主函数
public static void main(String[] args) {
LzwMain lzwMain=new LzwMain();
}
//构造函数
public LzwMain(){
this.setTitle("十三月的__字典压缩");
this.setSize(300, 200);
this.setLocationRelativeTo(null);
this.setLayout(null);
this.setIconImage(new ImageIcon("字典压缩_1\\张杰.jpg").getImage());
this.add(jb1);
jb1.setBounds(50, 50, 80, 30);
this.add(jb2);
jb2.setBounds(170, 50, 80, 30);
Listener lis=new Listener();
jb1.addActionListener(lis);
jb1.setActionCommand("压缩");
jb2.addActionListener(lis);
jb2.setActionCommand("解压");
this.setVisible(true);
this.setDefaultCloseOperation(3);
}
}
主监听类:也是很简单的
package 字典压缩;
import javax.swing.*;
import java.awt.event.ActionEvent;
public class Listener implements java.awt.event.ActionListener{
public void actionPerformed(ActionEvent arg0) {
if(arg0.getActionCommand().equals("压缩")){
JFileChooser jfc=new JFileChooser();
jfc.setName("字典压缩---压缩");
jfc.setVisible(true);
int returnVal=jfc.showOpenDialog(null);
if(returnVal==JFileChooser.APPROVE_OPTION){
String path=jfc.getSelectedFile().getAbsolutePath();
Lzw_Com l_c=new Lzw_Com();
l_c.read(path);
}
}else{
JFileChooser jfc=new JFileChooser();
jfc.setDialogTitle("字典压缩---解压缩");
jfc.setVisible(true);
int returnVal=jfc.showSaveDialog(null);
if(returnVal==JFileChooser.APPROVE_OPTION){
String path=jfc.getSelectedFile().getAbsolutePath();
Lzw_Decom l_d=new Lzw_Decom();
l_d.read(path);
}
}
}
}
字典类:
package 字典压缩;
//字典类
public class Dictionary {
int index;// 索引
LzwNode lzwNode;// 节点
// 构造函数
public Dictionary(int index, LzwNode lzwNode) {
this.index = index;
this.lzwNode = lzwNode;
}
}
压缩:
package 字典压缩;
import java.io.*;
import java.util.ArrayList;
//压缩
public class Lzw_Com {
ArrayList<Dictionary> arr_dic = new ArrayList<Dictionary>();
public void read(String path) {
// 创建输入流对象
InputStream is = null;
OutputStream os = null;
DataOutputStream dos = null;
int index = 255;
try {
is = new FileInputStream(path);
os = new FileOutputStream(path + "WLH");
dos = new DataOutputStream(os);
int prefix = is.read();
int suffix;
while (is.available() != 0) {
suffix = is.read();
System.out.println("@@@@@@@@ " + prefix + " " + suffix);
LzwNode newNode = new LzwNode(prefix, suffix);
// 遍历
// 定义一种状态 判断是否循环完毕
boolean state = true;
for (int i = 0; i < arr_dic.size(); i++) {
Dictionary dic = arr_dic.get(i);
if (newNode.isEqual(dic.lzwNode)) {
System.out.println("存在相同的。。。。。");
suffix = dic.index;
state = false;
}
}
if (state) {// 如果队列中不存在新建的节点对象
System.out.println("写进去的字符是 " + prefix);
dos.writeChar(prefix);// 将前缀写进文件
index++;
Dictionary newDic = new Dictionary(index, newNode);
arr_dic.add(newDic);// 将字典类对象添加到队列
}
// 后缀变前缀
prefix = suffix;
}
// 处理最后一个字节
int last = prefix;
System.out.println(last);
dos.writeChar(last);
// 完毕输出
System.out.println("@@@@@ 结束。。。。");
dos.close();
os.close();
is.close();
} catch (Exception e) {
e.printStackTrace();
}
}
}
解压:
package 字典压缩;
import java.util.ArrayList;
import java.io.*;
//解压
public class Lzw_Decom {
// 存放字典类的队列
ArrayList<Dictionary> arr_dic = new ArrayList<Dictionary>();
// 输出流对象------此处定义成全局变量为了下面用起来方便
OutputStream os = null;
// 解压的方法
public void read(String path) {
InputStream is = null;
DataInputStream dis = null;
try {
is = new FileInputStream(path);
dis = new DataInputStream(is);
// 恢复文件绝对路径
String newPath = path.substring(0, path.length() - 3);
os = new FileOutputStream(newPath);// 创建流对象
int prefix = 0;// 初始化前缀为0(自己设的)
int index = 255;// 初始化索引
LzwNode newNode;// 每一步至少创建的一个节点
while (dis.available() != 0) {
prefix = dis.readChar();// 读取
if (arr_dic.size() != 0) {
// 不为零是为了读取的第一个字节特殊处理---防止数组越界
// 队列中最后一个元素中的节点
LzwNode last = arr_dic.get(arr_dic.size() - 1).lzwNode;
// 改变队列最后一个字典类元素的节点后缀(即改变默认的0)
last.suffix = getPrefix(prefix);
}
// 创建出新的节点
newNode = new LzwNode(prefix, 0);// 后缀默认为0
index++;
Dictionary newDic = new Dictionary(index, newNode);// 新的字典类
arr_dic.add(newDic);
// 调用方法 递归写进文件
if (prefix <= arr_dic.size() + 256) {
write(prefix);
}
}
os.close();
dis.close();
is.close();// 关闭流
} catch (Exception e) {
e.printStackTrace();
}
}
public void write(int prefix) throws IOException {
// 递归终止的条件
if (prefix <= 255) {
os.write(prefix);// 写入前缀
return;
}
// 如果大於256
if (prefix > 255) {
LzwNode lzwnode = arr_dic.get(prefix - 256).lzwNode;// 取得索引下的节点
prefix = lzwnode.prefix;// 前缀
write(prefix);// 递归写入前缀
os.write(lzwnode.suffix);// 递归完以后写入后缀
}
return;
}
// 定义一个取得字典元素中的前缀方法
public int getPrefix(int prefix) {
// 递归的终止条件
if (prefix <= 255) {
return prefix;
}
prefix = arr_dic.get(prefix - 256).lzwNode.prefix;
prefix = getPrefix(prefix);
return prefix;
}
}
这次写的字典压缩并没有采用数组,而是用了队列,所以相当于是LZ16,其实还有lz12,lz15,lz18.各种变长的编码。压缩的时候,时间都是花费在字典查找是否有相同的地方上,还需要更好的方法。最大的好处是解压的时候速度特别的块,而且根本不需要将字典写进压缩文件中去。得等看完更多的压缩后再改进。
分享到:
相关推荐
# 【spring-ai-bedrock-converse-1.0.0-M7.jar中文文档.zip】 中包含: 中文文档:【spring-ai-bedrock-converse-1.0.0-M7-javadoc-API文档-中文(简体)版.zip】 jar包下载地址:【spring-ai-bedrock-converse-1.0.0-M7.jar下载地址(官方地址+国内镜像地址).txt】 Maven依赖:【spring-ai-bedrock-converse-1.0.0-M7.jar Maven依赖信息(可用于项目pom.xml).txt】 Gradle依赖:【spring-ai-bedrock-converse-1.0.0-M7.jar Gradle依赖信息(可用于项目build.gradle).txt】 源代码下载地址:【spring-ai-bedrock-converse-1.0.0-M7-sources.jar下载地址(官方地址+国内镜像地址).txt】 # 本文件关键字: spring-ai-bedrock-converse-1.0.0-M7.jar中文文档.zip,java,spring-ai-bedrock-converse-1.0.0-M7.jar,org.springframework.ai,spring-ai-bedrock-converse,1.0.0-M7,org.springframework.ai.bedrock.converse,jar包,Maven,第三方jar包,组件,开源组件,第三方组件,Gradle,springframework,spring,ai,bedrock,converse,中文API文档,手册,开发手册,使用手册,参考手册 # 使用方法: 解压 【spring-ai-bedrock-converse-1
房地产 -可视化管理课件.ppt
# 【tokenizers-***.jar***文档.zip】 中包含: ***文档:【tokenizers-***-javadoc-API文档-中文(简体)版.zip】 jar包下载地址:【tokenizers-***.jar下载地址(官方地址+国内镜像地址).txt】 Maven依赖:【tokenizers-***.jar Maven依赖信息(可用于项目pom.xml).txt】 Gradle依赖:【tokenizers-***.jar Gradle依赖信息(可用于项目build.gradle).txt】 源代码下载地址:【tokenizers-***-sources.jar下载地址(官方地址+国内镜像地址).txt】 # 本文件关键字: tokenizers-***.jar***文档.zip,java,tokenizers-***.jar,ai.djl.huggingface,tokenizers,***,ai.djl.engine.rust,jar包,Maven,第三方jar包,组件,开源组件,第三方组件,Gradle,djl,huggingface,中文API文档,手册,开发手册,使用手册,参考手册 # 使用方法: 解压 【tokenizers-***.jar***文档.zip】,再解压其中的 【tokenizers-***-javadoc-API文档-中文(简体)版.zip】,双击 【index.html】 文件,即可用浏览器打开、进行查看。 # 特殊说明: ·本文档为人性化翻译,精心制作,请放心使用。 ·只翻译了该翻译的内容,如:注释、说明、描述、用法讲解 等; ·不该翻译的内容保持原样,如:类名、方法名、包名、类型、关键字、代码 等。 # 温馨提示: (1)为了防止解压后路径太长导致浏览器无法打开,推荐在解压时选择“解压到当前文件夹”(放心,自带文件夹,文件不会散落一地); (2)有时,一套Java组件会有多个jar,所以在下载前,请仔细阅读本篇描述,以确保这就是你需要的文件; # Maven依赖: ``` <dependency> <groupId>ai.djl.huggingface</groupId> <artifactId>tokenizers</artifactId> <version>***</version> </dependency> ``` # Gradle依赖: ``` Gradle: implementation group: 'ai.djl.huggingface', name: 'tokenizers', version: '***' Gradle (Short): implementation 'ai.djl.huggingface:tokenizers:***' Gradle (Kotlin): implementation("ai.djl.huggingface:tokenizers:***") ``` # 含有的 Java package(包): ``` ai.djl.engine.rust ai.djl.engine.rust.zoo ai.djl.huggingface.tokenizers ai.djl.huggingface.tokenizers.jni ai.djl.huggingface.translator ai.djl.huggingface.zoo ``` # 含有的 Java class(类): ``` ai.djl.engine.rust.RsEngine ai.djl.engine.rust.RsEngineProvider ai.djl.engine.rust.RsModel ai.djl.engine.rust.RsNDArray ai.djl.engine.rust.RsNDArrayEx ai.djl.engine.rust.RsNDArrayIndexer ai.djl.engine.rust.RsNDManager ai.djl.engine.rust.RsSymbolBlock ai.djl.engine.rust.RustLibrary ai.djl.engine.rust.zoo.RsModelZoo ai.djl.engine.rust.zoo.RsZooProvider ai.djl.huggingface.tokenizers.Encoding ai.djl.huggingface.tokenizers.HuggingFaceTokenizer ai.djl.huggingface.tokenizers.HuggingFaceTokenizer.Builder ai.djl.hu
内容概要:本文详细介绍了如何使用MATLAB构建和应用BP神经网络预测模型。首先,通过读取Excel数据并进行预处理,如归一化处理,确保数据的一致性和有效性。接着,配置网络结构,选择合适的训练算法(如SCG),设置训练参数(如最大迭代次数、目标误差等)。然后,进行模型训练,并通过可视化窗口实时监控训练过程。训练完成后,利用测试集评估模型性能,计算均方误差(MSE)和相关系数(R²),并通过图表展示预测效果。最后,将训练好的模型保存以便后续调用,并提供了一个简单的预测函数,确保新数据能够正确地进行归一化和预测。 适合人群:具有一定MATLAB基础,从事数据分析、机器学习领域的研究人员和技术人员。 使用场景及目标:适用于需要对多维数据进行预测的任务,如电力负荷预测、金融数据分析等。主要目标是帮助用户快速搭建一个可用的BP神经网络预测系统,提高预测准确性。 其他说明:文中提供了完整的代码框架和详细的注释,便于理解和修改。同时,强调了数据预处理的重要性以及一些常见的注意事项,如数据量的要求、归一化的必要性等。
# 【tokenizers-***.jar***文档.zip】 中包含: ***文档:【tokenizers-***-javadoc-API文档-中文(简体)版.zip】 jar包下载地址:【tokenizers-***.jar下载地址(官方地址+国内镜像地址).txt】 Maven依赖:【tokenizers-***.jar Maven依赖信息(可用于项目pom.xml).txt】 Gradle依赖:【tokenizers-***.jar Gradle依赖信息(可用于项目build.gradle).txt】 源代码下载地址:【tokenizers-***-sources.jar下载地址(官方地址+国内镜像地址).txt】 # 本文件关键字: tokenizers-***.jar***文档.zip,java,tokenizers-***.jar,ai.djl.huggingface,tokenizers,***,ai.djl.engine.rust,jar包,Maven,第三方jar包,组件,开源组件,第三方组件,Gradle,djl,huggingface,中文API文档,手册,开发手册,使用手册,参考手册 # 使用方法: 解压 【tokenizers-***.jar***文档.zip】,再解压其中的 【tokenizers-***-javadoc-API文档-中文(简体)版.zip】,双击 【index.html】 文件,即可用浏览器打开、进行查看。 # 特殊说明: ·本文档为人性化翻译,精心制作,请放心使用。 ·只翻译了该翻译的内容,如:注释、说明、描述、用法讲解 等; ·不该翻译的内容保持原样,如:类名、方法名、包名、类型、关键字、代码 等。 # 温馨提示: (1)为了防止解压后路径太长导致浏览器无法打开,推荐在解压时选择“解压到当前文件夹”(放心,自带文件夹,文件不会散落一地); (2)有时,一套Java组件会有多个jar,所以在下载前,请仔细阅读本篇描述,以确保这就是你需要的文件; # Maven依赖: ``` <dependency> <groupId>ai.djl.huggingface</groupId> <artifactId>tokenizers</artifactId> <version>***</version> </dependency> ``` # Gradle依赖: ``` Gradle: implementation group: 'ai.djl.huggingface', name: 'tokenizers', version: '***' Gradle (Short): implementation 'ai.djl.huggingface:tokenizers:***' Gradle (Kotlin): implementation("ai.djl.huggingface:tokenizers:***") ``` # 含有的 Java package(包): ``` ai.djl.engine.rust ai.djl.engine.rust.zoo ai.djl.huggingface.tokenizers ai.djl.huggingface.tokenizers.jni ai.djl.huggingface.translator ai.djl.huggingface.zoo ``` # 含有的 Java class(类): ``` ai.djl.engine.rust.RsEngine ai.djl.engine.rust.RsEngineProvider ai.djl.engine.rust.RsModel ai.djl.engine.rust.RsNDArray ai.djl.engine.rust.RsNDArrayEx ai.djl.engine.rust.RsNDArrayIndexer ai.djl.engine.rust.RsNDManager ai.djl.engine.rust.RsSymbolBlock ai.djl.engine.rust.RustLibrary ai.djl.engine.rust.zoo.RsModelZoo ai.djl.engine.rust.zoo.RsZooProvider ai.djl.huggingface.tokenizers.Encoding ai.djl.huggingface.tokenizers.HuggingFaceTokenizer ai.djl.huggingface.tokenizers.HuggingFaceTokenizer.Builder ai.djl.hu
内容概要:本文探讨了电动汽车(EV)对IEEE 33节点电网的影响,特别是汽车负荷预测与节点潮流网损、压损计算。通过蒙特卡洛算法模拟电动汽车负荷的时空特性,研究了四种不同场景下电动汽车接入电网的影响。具体包括:负荷接入前后的网损与电压计算、不同节点接入时的变化、不同时段充电的影响以及不同负荷大小对电网的影响。通过这些分析,揭示了电动汽车充电行为对电网的具体影响机制,为未来的电网规划和优化提供了重要参考。 适合人群:从事电力系统研究的专业人士、电网规划工程师、电动汽车行业从业者、能源政策制定者。 使用场景及目标:①评估电动汽车大规模接入对现有电网基础设施的压力;②优化电动汽车充电设施的布局和运营策略;③为相关政策和技术标准的制定提供科学依据。 其他说明:文中提供的Python代码片段用于辅助理解和验证理论分析,实际应用中需要更复杂的模型和详细的电网参数。
房地产 -【万科经典-第五园】第五园产品推介会.ppt
稳压器件.SchLib
1
模拟符号.SCHLIB
内容概要:本文详细介绍了如何在Simulink中构建并仿真三相电压型逆变器的SPWM调制和电压单闭环控制系统。首先,搭建了由六个IGBT组成的三相全桥逆变电路,并设置了LC滤波器和1000V直流电源。接着,利用PWM Generator模块生成SPWM波形,设置载波频率为2kHz,调制波为50Hz工频正弦波。为了实现精确的电压控制,采用了abc/dq变换将三相电压信号转换到旋转坐标系,并通过锁相环(PLL)进行同步角度跟踪。电压闭环控制使用了带有抗饱和处理的PI调节器,确保输出电压稳定。此外,文中还讨论了标幺值处理方法及其优势,以及如何通过FFT分析验证输出波形的质量。 适用人群:电力电子工程师、自动化控制专业学生、从事逆变器研究的技术人员。 使用场景及目标:适用于希望深入了解三相电压型逆变器控制原理和技术实现的研究人员和工程师。主要目标是掌握SPWM调制技术和电压单闭环控制的设计与调试方法,提高系统的稳定性和效率。 其他说明:文中提供了详细的建模步骤和参数设置指南,帮助读者快速上手并在实践中不断优化模型性能。同时,强调了一些常见的调试技巧和注意事项,如载波频率的选择、积分器防饱和处理等。
【蓝桥杯EDA】客观题解析
房地产 -物业 苏州设备房管理标准.ppt
3
房地产 -2024H1房地产市场总结与展望(新房篇).docx
内容概要:本文详细介绍了利用LabVIEW与PLC进行自动化数据交互的技术方案,涵盖参数管理、TCP通信、串口扫描、数据转移等方面。首先,通过配置文件(INI)实现参数的自动加载与保存,确保参数修改不影响程序运行。其次,在TCP通信方面采用异步模式和心跳包设计,增强通信稳定性,并加入CRC16校验避免数据丢失。对于串口扫描,则通过VISA配置实现状态触发,确保进出站检测的准确性。最后,针对不同类型的数据转移提出具体方法,如TDMS文件存储策略,确保高效可靠的数据处理。 适合人群:从事工业自动化领域的工程师和技术人员,尤其是熟悉LabVIEW和PLC编程的从业者。 使用场景及目标:适用于需要将LabVIEW作为上位机与PLC进行数据交互的工业生产线环境,旨在提高系统的自动化程度、稳定性和易维护性。 其他说明:文中提供了多个实用代码片段和注意事项,帮助读者更好地理解和应用相关技术。
d65689da7ed20e21882a634f8f5ce6c9_faad2735d293907fb32f7c5837f7302a
内容概要:本文档《NISP&CISP考试题库.pdf》汇集了大量关于信息安全专业领域的练习题,涵盖风险评估、安全策略、访问控制、恶意代码防范、加密技术、安全模型等多个方面。文档通过选择题的形式探讨了信息安全保障、风险管理和技术实施等核心内容,强调了信息安全保障的动态性和持续性,以及信息安全管理体系(ISMS)的重要性。文档还详细介绍了多种安全技术和标准,如ISO27001、GB/T 22080、SSE-CMM、CC标准等,并通过具体案例和场景分析,帮助读者理解如何在实际环境中应用这些标准和技术。 适用人群:文档适用于信息安全领域的从业者,尤其是准备参加NISP(国家信息安全水平考试)和CISP(注册信息安全专业人员)认证考试的考生,以及从事信息安全管理工作、对信息安全有兴趣的技术人员。 使用场景及目标:①帮助考生系统复习信息安全领域的基础知识和技能,为考试做准备;②为企业内部信息安全培训提供参考资料;③加深信息安全从业人员对安全标准和技术的理解,提升其在实际工作中的应用能力;④帮助信息安全管理者了解如何构建和维护有效的信息安全管理体系。 其他说明:文档不仅提供了理论知识,还结合了实际案例,有助于读者理解信息安全的复杂性和多样性。文档强调了信息安全的多层次、多维度特性,指出信息安全不仅依赖于技术手段,还需要结合管理措施和人员培训。此外,文档中的题目设计贴近实际工作场景,能够有效提升读者应对信息安全挑战的能力。
3dmax插件K_Tools.v2.6
内容概要:“华中杯”是由华中地区高校或相关机构举办的数学建模竞赛,旨在培养学生的创新能力和团队合作精神。比赛主要面向全国高校在校生(以本科生为主,部分赛事允许研究生参加),采用团队赛形式(3人一组),参赛队伍需在72小时内完成建模、编程及论文写作。竞赛一般在每年4月或5月举行,设有多个奖项,具体比例根据参赛队伍数量确定。; 适合人群:对数学建模感兴趣并希望提升自身能力的全国高校在校生(本科生为主,部分赛事允许研究生参加)。; 使用场景及目标:①帮助学生了解数学建模竞赛的形式与流程;②为参赛者提供备赛建议,如学习往届真题、掌握Matlab、Python、LaTeX等工具以及明确团队分工;③鼓励学生关注官方通知,确保获取最新赛程和规则信息。; 其他说明:2025年的具体赛程、规则可能会有所调整,请以“华中杯数学建模竞赛官网”或主办方通知为准。可通过学校数学系或相关社团获取报名信息。