awk:
awk ‘print{$1,$2}’ grade.txt 打印单独记录
awk ‘BEGIN print{“Name Belt\n-------------------------------”} print{$1”\t”$4} END {print “end-of-report”}’ grade.txt 打印报告头尾
awk ‘$4 ~ /48/ {print $0}’ grade.txt 匹配
awk ‘$4 == “48” {print $0}’ grade.txt 精确匹配
awk ‘$4 !~ /48/ {print $0}’ grade.txt 不匹配
awk ‘{if ($3 < $4) print $1}’ grade.txt 比较
awk ‘/[Gg]reen/’ grade.txt 匹配包含Green或green的行
awk ‘$1 ~ /^…a/’ grade.txt 第一列中的第四个字符为a
awk ‘$1 ~ /(Green | Blue)/’ grade.txt 第一列是Green或Blue的行
awk ‘/^48/’ grade.txt 以48开头的行
awk ‘{if ($1 == “hello”) $6 = $6-1; print $1,$6}’ grade.txt 修改域值
awk ‘tot += $6; END {print “Totle Number is : ”tot}’ grade.txt 统计
ls -l | awk ‘$1 ~ /^[^d]/ {print $9”\t”$5} {tot += $5} END {print “totle size is : ”tot” KB”}’ 打印文件名及其长度,并统计总长度
awk –F”:” ‘{OFS=”-”} {print NR,$1,$2,$3}’ grade.txt 输出分隔符,行号
===============================================================
sed:
sed –n `1-3p` quote.txt 打印1至3行
sed –n `/The/ p` quote.txt 只显示匹配The的行
sed –n `4, /The/ p` quote.txt 第四行匹配
sed –n `$p` quote.txt 最后一行
sed –e `/music/=` quote.txt 打印匹配的行号
echo “Mr Willam” | sed `s/Mr /& Bruce/g` 追加Mr Bruce Willam
echo “file” | sed `s/$/.doc/g` 增加扩展名file.doc
sed `s/old/new/` filename quote.txt 替换第一个
sed `s/old/new/4` quote.txt 替换第四个
sed `s/\(.*\)old/\1new/` quote.txt 替换最后一个
sed `/old1/s/old2/new/g` quote.txt 将出现old1的行中old2全部替换为new
sed `/old1/!s/old2/new/g` quote.txt 除了old1的行都替换
sed `1,6 s/old/new/` quote.txt 替换1至6行的第一个old
sed –n `/word/ !p` filename 显示文件中不带有word的行
sed `1,6 d` filename 删除1到6行
sed `/word/ !d` filename 删除除word的行
sed G filename 每一行增加空行
sed `/^$/d;G` filename 删除原有的空行,增加空行Sort:
sort –t: -r video.txt 逆序
sort –t: +3n video.txt 对第四个列按数值排序
sort –t: +1.2 video.txt 按第二列的第三个字符排序
sort –t: -k4 video.txt 第四个列
sort –t: -u video.txt 去除重复行
sort –t: -k4 –k1 video.txt 先以第四列,再以第一列
sort –t: +0 -2 +3 video.txt 先以第0域,忽略第二域(第三列),再以第三域
sort –t: -m v1.txt v2.txt 合并
===============================================================
uniq:
uniq –c myfile.txt 显示重复的数目
uniq –d myfile.txt 显示重复出现的行
uniq –n2 myfile.txt 只测试第二列
===============================================================
join:
join –j1 4 –j2 2 peers peers2 连接peers域4,匹配peers2域2
===============================================================
cut:
cut –d: -f1,3 pers 以:分割的第1,3列
===============================================================
paste:
paste –d: pas1 pas2 以:为分割粘贴为两列
===============================================================
split:
split -2 big.txt 按每两行进行分割
分享到:
相关推荐
awk总结(分工合作角度)
总结而言,grep、sed和awk这三种工具各有所长,能应对不同复杂度的文本处理需求。grep适用于简单的搜索和计数任务,sed则更加强大,可以进行文本替换和复杂编辑,而awk则类似于一种简化的编程语言,其在文本处理上...
### Shell Awk脚本知识点总结 #### 一、Shell与Awk在文本处理中的应用 在日常工作中,尤其是在技术支持领域,经常会遇到需要处理文本文件的情况。无论是哪种类型的数据库,最终都可以将其导出为文本格式,这为我们...
awk是Linux/Unix环境下强大的文本分析工具,常用于处理结构化的数据文件,如CSV、TSV格式或由制表符分隔的文件。它通过模式匹配和动作来处理输入的数据,使得在shell脚本中进行数据提取、转换和报告生成变得简单。在...
### AWK 文件处理总结 #### 一、AWK 入门篇 AWK 是一种强大的文本处理工具,常用于Linux/Unix环境下。它允许用户通过简单的脚本语言来进行复杂的文本处理任务。 **基本命令格式**: ```bash awk 'pattern { action...
通过上述总结,我们可以看出awk是一个功能极其强大的文本处理工具,它不仅可以用于简单的文本搜索和替换,还能进行复杂的数据分析和报告生成。掌握awk的基本用法和高级技巧,对于提高工作效率和数据处理能力具有重要...
### 总结 AWK是一种专门为文本处理和数据分析而设计的编程语言。它适合于快速编写简短但功能强大的程序来完成特定任务。AWK的语法简洁,提供了丰富的内置函数和灵活的数据处理能力,使得它成为数据处理领域中的一个...
`END`规则在处理完所有输入后执行,通常用于总结和打印统计信息。 **8. 处理多个文件** `awk`可以同时处理多个文件,如`awk 'ACTION' file1 file2 ...`。当处理多个文件时,`FNR`会跟踪每个文件的行数。 **9. ...
#### 五、总结 Awk 是一种强大的文本处理工具,尤其适用于 Unix/Linux 环境下的文本模式扫描和数据处理任务。通过灵活运用不同的调用方式,可以极大地提高工作效率,解决各种文本处理需求。无论是简单的命令行应用...
根据您提供的文件内容,这里总结了关于awk的一些知识点。 ### 1. Awk概述 Awk是一种编程语言,用于处理文本模式和报告生成。它主要用于Linux操作系统,并广泛应用于UNIX Shell编程中。Awk按照记录和字段的方式来...
#### 七、总结 AWK作为一款功能强大的文本处理工具,在Linux和Unix环境中有着广泛的应用。无论是简单的文本处理还是复杂的数据分析,AWK都能够提供高效的解决方案。通过本文的学习,希望能够帮助读者更好地理解和...
### 总结 awk是一种极其灵活且功能强大的文本处理工具,在Linux/Unix系统中具有广泛的应用。掌握awk的基本语法和高级特性对于提高文本处理效率和实现自动化任务至关重要。无论是简单的模式匹配还是复杂的逻辑处理,...
Linux中的`awk`是一个强大的文本分析工具...总结,`awk`是Linux文本处理的重要工具,其灵活性和强大的功能使其在数据分析、日志分析等领域有着广泛的应用。通过深入学习和实践,我们可以充分利用`awk`来提高工作效率。
总结: 在本文中,我们比较了shell和awk两个工具在大数据处理中的速度差异。awk的速度远远高于shell,主要是因为awk是一种功能强大且灵活的文本处理语言,具有高效的处理能力。选择合适的工具是非常重要的。在大...
根据给定文件的信息,我们可以总结出以下关于 AWK 应用和讲解步骤的相关知识点: ### 一、AWK 基础语法 AWK 是一个强大的文本处理工具,在 Linux 和 Unix 系统中广泛使用。AWK 的基本命令格式如下: ``` awk [选项...