`
chinamming
  • 浏览: 151187 次
  • 性别: Icon_minigender_1
  • 来自: 北京
文章分类
社区版块
存档分类
最新评论

Awk里的域赋值操作和部分源码解析($1=$1,$0=$0,FS,OFS)

 
阅读更多

前言:

cu上出了个shell题:

http://bbs.chinaunix.net/thread-2319120-1-1.html

第八题:GNU awk的$1=$1到底有什么作用?$0=$0呢?

这题问得相当的细致。可能很多人已经常用这二个赋值语句,却半知半解。以下分二部分对这个题目进行分析

建议没心情,没耐心,没兴趣的人,只需要了解下第一部分,看第二部分就表看了,很罗嗦的。

第一部分:能过man上边的解析,回签这二个赋值语句的功能

第二部分:awk部分源码解析(结点树简介,及域模块)

通过分析awk域模块源码 ,了解awk的内部处理机制

参考程序及源码版本:gawk-3.1.5

=========================第一部分================================================

第一部分:GNU awk的$1=$1到底有什么作用?$0=$0呢?

首先了解一下一些知识,先翻一下man awk里的这段话:

assigning to anon-existent field (e.g., $(NF+2) = 5) increases the value of NF,

对不存在的域赋值,会增加NF

creates any intervening fields with the nullstring as their value,

中间域默认为NULL字符串

and causes the value of $0 to be recomputed, with the fields being separated by thevalue of OFS.

$0会被根据OFS值重新计算,

References to negative numbered fields cause a fatal error.

引用负的域索引是无效的,并且会导致错误

Decrementing NF causes the valuesof fields past the new value to be lost,

减少NF值时,索引大于NF的域将会丢失

and the value of $0 to be recomputed, with the fields being separatedby the value of OFS.

同时$0也会被根据OFS值重新计算,

Assigning a value to an existing field causes the whole record to be rebuilt when $0 is referenced.

对当前存在的域值进行赋值,会使记录在$0被引用时重构

Similarly,assigning a value to $0 causes the record to be resplit, creating new values for the fields.

$0赋值,也会使记录重新重分割,对域重新赋值

这里涉及到二种记录操作

1:记录分割,记录按FS值分割成域,赋给每个域值

2:记录重构,根据域值和OFS重构域。重构之后: $0=$1OFS$2OFS……

另外补充一点额外的知识:

$0$1,$2….是分开存放的,$0保存的是记录初始的整串值(包括刚读进来时候的分隔符),而$1,2...保存的是分割后的域值,

awk内部函数机制基本上保证了二者的同步,一般不会出现什么错误。

尽管如此,分开存储的记录和域还是不可必免会存在一些应用问题,下边举二个例子说明:

例子一:当我们想通过更改OFS,变更域之间的输出分隔符时,此时$0由于保存的是原来的串,输出并不是按$1OFS$2进行输出:

[javascript] view plaincopyprint?
  1. [root@rac_2~]#echo"aaabbb"|awk'{OFS="#";print$0;}'
  2. aaabbb

此时的办法采用可以列举的办法:

[javascript] view plaincopyprint?
  1. [root@rac_2~]#echo"aaabbb"|awk'{OFS="#";print$1,$2;}'
  2. aaa#bbb

但是当域值很多时(或不固定时),再用列举的话可能要借用NF,写一个循环

例子二:当我们想通过更改FS,变更域之间的分隔符时,此时$0由于保存的是原来的串,$1并没有重新分隔

  1. [root@rac_2~]#echo"aa#ab#bb"|awk'{FS="#";print$1}'
  2. aa#a

$1=$1的解析:

命令分解:

1:赋值操作的顺序是从右到左,先通过右操作数引用了$1,取得当前$1的值,

2:再通过赋值操作将值赋给左边的$1

步骤解析:

步骤1没什么特别的,若当前NF=0,这里的$1只会得到空值(NULL string)

步骤2分二种情况

1:若当前NF=0,即上边引文中提到的assigning to a non-existent field,

此时,NF01

2:若NF>1,则NF不变

接下来是关健做用:由于步骤2触发了域赋值操作,产生了连带的动作:在下一次引用$0时,会对$0进行重新构。(根据OFS

归纳作用:

下次引用$0时,对$0进行按引用时的OFS进行重构($1OFS$2OFS……

应用:

例子一:变更输出分隔符,可以这样:

[javascript] view plaincopyprint?
  1. [root@rac_2~]#echo"aaabbb"|awk'{OFS="#";$1=$1;print$0;}'
  2. aaa#bbb

再来是$0=$0的解析

命令分解:

1:赋值操作的顺序是从右到左,先通过右操作数引用了$0,取得当前$0的值

2:再通过赋值操作将值赋给左边的$0

步骤分析:

步骤1:这里引用了$0进行取值,由于上边提到的设定,要注意是否有重构问题

步骤2:这里是赋值引用,对$0的赋值引用,会涉及到根据当前的FS对域的重分割

归纳作用:根据右操作数$0取出的值(可能是重构的),赋给$0,并根据FS重新分隔

应用:

例子二:变更输入分隔符,对当前记录进行重解析:

[javascript] view plaincopyprint?
  1. [root@rac_2~]#echo"aa#ab#bb"|awk'{FS="#";$0=$0;print$1}'
  2. aa#a

综合应用$1=$1,$0=$0

这里涉及到了FSOFS同时变更时,要注意分析,区别应用:

例子三:替换原来的分隔符(假如为A)为新的串(B),最后按分隔符(C)输出第三域

[javascript] view plaincopyprint?
  1. [root@rac_2~]#echo"1CA2CA3CA"|awk'BEGIN{FS="A"}{FS="C";OFS="B";$1=$1;$0=$0;print$3}'
  2. B3

这里如果少了$1=$1的话,则$0在引用时无法根据新的OFS值重构,没有做替换,仍按原先的串按新FS解析,得到原先的第三域值

[javascript] view plaincopyprint?
  1. [root@rac_2~]#echo"1CA2CA3CA"|awk'BEGIN{FS="A"}{FS="C";OFS="B";$0=$0;print$3}'
  2. A3

这里如果少了$0=$0的话,$0以原先的值"1CA2CA3CA"在读入时按"A"分隔$3不变

[javascript] view plaincopyprint?
  1. [root@rac_2~]#echo"1CA2CA3CA"|awk'BEGIN{FS="A"}{FS="C";OFS="B";$1=$1;print$3}'
  2. 3C

这个结果与下边等同:

[javascript] view plaincopyprint?
  1. [root@rac_2~]#echo"1CA2CA3CA"|awk'BEGIN{FS="A"}{FS="C";OFS="B";print$3}'
  2. 3C

=====================================================================================================

二:awk部分源码解析(结点树简介,及域模块)

man还是有些不够清晰的,或多或少会留下点疑问,应该会有人考虑到$0在分割之后存放成各个域,既然可以通过各个域拼接起来,为什么还要保存一份原先的串的样本?

比如怎么证明$0是独立于$1,$2,$3的存储存在?这样做又出于什么考虑?

再比如为什么在$1=$1后不是立即重构$0,而是在引用的时候才重构。

再比如对$0进行赋值后,是直接触发分割的,还是在引用域前才进行分隔。

没什么什么比查源码更能回答这些问题的了

通过查看awk的源码中的awk.h头文件可以了解到awk的源码的核心数据结构:结点(typedef struct NODE)和结点树,awk代码里的各种元素都是以树和结点这种结构存在的,变量如FS/$0/$0是结点,操作符如“=赋值符等”也是结点,内置函数(builtin)也是结点,哈希数组也是结点。

awk是以节点(node 结构)树的形式保存各种变量和操作的,比如各变量,各{}操作块都是树的节点。awk通过调用awkgram.cyylex+yyparse二个函数,解析awk程序,并形成各种树,比较典型的,如主体程序有三颗数:

[javascript] view plaincopyprint?
  1. /*AblockofAWKcodetoberunbeforerunningtheprogram*/
  2. NODE*begin_block=NULL;
  3. /*Theparsetreeisstoredhere.*/
  4. NODE*expression_value;
  5. /*AblockofAWKcodetoberunafterthelastinputfile*/
  6. NODE*end_block=NULL;

程序块在解析形成树之后,由函数 执行Intinterpret(register NODE *volatile tree)

begin模块跟end模块都执行一次

[javascript] view plaincopyprint?
  1. if(begin_block!=NULL){
  2. in_begin_rule=TRUE;
  3. (void)interpret(begin_block);
  4. }
  5. if(end_block!=NULL){
  6. in_end_rule=TRUE;
  7. (void)interpret(end_block);
  8. }

而中间模块:expression_value 是在do_input里,一次读一一条记录执行一次的

[javascript] view plaincopyprint?
  1. for(;;){
  2. rval2=rval3=-1;/*fordebugging*/
  3. rval2=interpret(expression_value);
  4. if(rval2!=0)
  5. rval3=inrec(iop);
  6. if(rval2==0||rval3!=0)
  7. break;
  8. }

然后回到正题:域模块源码:field.c,通过分析模块的数据结构和函数来了解模块设计,包括分隔符设计,记录分割,记录设置,域设置等

首先是数据结构:

[javascript] view plaincopyprint?
  1. NODE**fields_arr;/*arrayofpointerstothefieldnodes*/

fields_arr数组保存了所有域节点,$1,2...分别对应一样的下标fields_arr[1,2…]

C的数组索引是从0开始的,这里也不例外,

fields_arr[0]是用于保存完整记录的节点,保存记录值,即$0

然后是函数,我们关注函数的功能和调用。

NF相关函数:

NF(域数值)赋值函数:

[javascript] view plaincopyprint?
  1. voidset_NF()

直接更改NF值,域数组随NF长短做伸缩

最后一句话:field0_valid = FALSE;涉及到记录重构,见rebuild_record()

记录层面的函数:赋值,重构,域分割等

记录重置函数:

[javascript] view plaincopyprint?
  1. voidreset_record()

重置记录,清除fields_arr,NF= -1,视情况保存当前FS

当对$0赋值时即是调用此函数

记录赋值函数:

[javascript] view plaincopyprint?
  1. voidset_record(constchar*buf,intcnt)

此函数调用:reset_record,重置数组,将buf数组里的内容保存到fields_arr[0] 里边去

注意:此时并未进行分割。注释里是这么写的:

* setup $0, but defer parsing rest of line until reference is made to $(>0)

* or to NF. At that point, parse only as much as necessary.

虽然保存的记录值,但没有做域解析,直到域或NF引用才做解析

记录重构函数:

[javascript] view plaincopyprint?
  1. staticvoidrebuild_record()

这个函数没有参数,这个函数的功能是把当前各域fields_arr[1,2….]数组拼接OFS,形成新的字符串更新到fields_arr[0]

并且这个函数只在get_field函数里,只有在field0_valid标志为fault时前提下,做$0引用时,才调用

记录分割函数:

[javascript] view plaincopyprint?
  1. NODE*do_split(NODE*tree)

根据设定的规则,解析域,包括定长解析,正则解析,字符串解析等。

(这么多的规则,是为了满足功能和效率需求。)

域层面的函数:

域赋值函数:

[javascript] view plaincopyprint?
  1. taticvoidset_field(longnum,char*str,longlen,NODE*dummyATTRIBUTE_UNUSED)

通过对域节点操作fields_arr[num],简单的赋域值,这函数由get_field调用

最关健的函数:

域引用函数:

[javascript] view plaincopyprint?
  1. NODE**get_field(registerlongrequested,Func_ptr*assign)

requested是fields_arr的下标数值,下标为零是记录,$0,下标大于零是域

这边称为引用函数,因为域引用,有可能是出现在赋值运算符的左边(LHS)或右边(LHS

因为在词法解析过程中,$n是出现在赋值语句"="号左边还是右边都是一样的标记,并没有什么不同,

到语法解析的时候才能明白并且由assign指定,assign为空则是取值引用,非空则是赋值引用

这个函数分为以下四种情况:

1$0取值引用,requested=0,assign = NULL

若 field0_valid = FALSE则调用 rebuild_record(重构fields_arr[0])

返回fields_arr[0]

2$n(n>=1)取值引用,requested!=0,assign = NULL

若未进行域解析,则调用域解析函数,

返回fields_arr[n]

3$0赋值引用,requested=0,assign!= NULL

若 field0_valid = FALSE,同样调用rebuild_record重构记录,

记录赋值是在 set_record里完成的,返回fields_arr[0]

4$n(n>=1)赋值引用:requested!=0,assign = NULL

设置 field0_valid = FALSE;

域赋值在set_field里完成的,返回fields_arr[n]

结论:

1:记录值($0)与各域值($1,2,….)是分离存放不同node结点里,前者存放在fields_arr[0],后者存放在fields_arr[1,2...]

2:域赋值引用会引起记录重构和分割(不是同步的)

3:域取值引用会根据情况判断是否进行记录重构,或重新分割。

再看awk的一些更新记录关于get_field函数的说明:

[javascript] view plaincopyprint?
  1. Changesfrom2.12.27to2.12.28
  2. Tunedget_field()--itwasunnecessarilyparsingthewholerecordonreference
  3. to$0.
  4. Changesfrom2.11.1to2.12
  5. Fixedbuginget_field()wherebychangestoafieldwerenotalways
  6. properlyreflectedin$0.
  7. get_field()passesFS_regexp
  8. tore_parse_field(),asdoesdo_split().
  9. Changesfrom2.10betato2.11beta
  10. Fixinget_field()forcasewhere$0ischangedandthen$(n)are
  11. changedandthen$0isused.

其实这部分机制也就是awk程序当前版本的一种设定。在版本变更中,有的做为bug,有的做为设定进行调整。

没必要再深究下去了,知道基本的作用就行了。

分享到:
评论

相关推荐

    awk使用大全

    字段可以通过字段操作符$访问,如`$1`表示第一个字段,`$0`则代表整个记录。 ##### 字段的引用和分离 - **字段引用**:如`print $2,$1,$3`会输出第二、第一和第三个字段。 - **字段计算**:可以使用表达式作为字段...

    awk用法__都是例子

    awk '{print NR,NF,$1,$NF}' file 显示文件 file 的当前记录号、域数和每一行的第一个和最后一个域。 示例 3:通过管道符获得输入 df | awk '$4>1000000' 通过管道符获得输入,显示第 4 个域满足条件的行。 示例 ...

    awk用法小结

    下面我们将根据提供的部分示例代码来详细解析`awk`的一些关键功能与使用技巧。 #### 一、基础用法与模式匹配 1. **基本搜索与打印**: - `awk '/101/' file`:这个命令将查找文件`file`中包含数字`101`的所有行并...

    awk使用文档

    `awk` 是一种强大的文本分析工具,常用于处理和解析结构化的数据文件,如日志文件、CSV文件等。在Linux和Unix系统中,`awk` 提供了一种灵活的方式来提取、过滤和处理数据。以下是对`awk`常用命令和功能的详细说明: ...

    awk入门级教材awk入门awk入门

    - **环境变量**:通过环境变量 `FS` 和 `OFS` 控制字段和输出字段分隔符。 - **条件判断**:利用逻辑运算符 `&&`, `||` 等进行复杂的条件判断。 - **循环结构**:通过 `for` 循环遍历数组或其他结构。 - **用户...

    linux-awklinux-awk

    Awk 是一种专门设计用于处理文本和数据的编程语言,主要用于 Linux/Unix 操作系统中。它可以处理来自标准输入、一个或多个文件,甚至是其他命令的输出结果。Awk 支持高级功能,比如用户自定义函数和动态正则表达式,...

    awk详细用法小结awk awk

    - `$0`:当前行的完整内容。 - `ARGC`:命令行参数的个数。 - `ARGIND`:当前正在处理的文件在ARGV数组中的索引位置。 - `ARGV`:包含所有命令行参数的数组。 - `CONVFMT`:数值转换格式。 - `ENVIRON`:访问环境...

    awk使用基本理论

    **提取行**:读取文件中的每一行,并将其赋值给内部变量 `$0`。默认情况下,每一行被视为一个记录,以换行符结束。 2. **分割行**:将该行按照预定义的分隔符进行分割,从左至右依次命名为 `$1`, `$2`, `$3` 等。...

    awk用法小结--有关awk的材料

    - 单独的赋值或模式条件句如果没有 `{}` 默认会执行 `print $0`。 - `if` 条件语句必须放在动作 `{}` 中。 - 条件判断中“相等”应使用 `==` 而不是 `=`。 - 输出多列需使用逗号 `,` 分隔。 - `for` 循环中的间隔符...

    AWK入门教程和实战案例

    AWK 是一种强大的文本分析工具,常用于处理和解析Linux或Unix系统中的日志文件、CSV数据等。它的工作方式是扫描输入文件,对每一行(记录)进行处理,根据预定义的模式(patterns)匹配内容,并执行相应的动作。本...

    linu awk命令详解_linuawk命令详解_

    在Linux操作系统中,awk是一个强大的文本分析工具,用于处理和解析文件或标准输入中的数据。它的名字来源于它的三位创始人—— Alfred V. Aho、Peter J. Weinberger 和 Brian W. Kernighan 的首字母。awk提供了灵活...

    AWK使用简介.pdf

    AWK脚本由模式和操作组成: - **模式** (`pattern`):定义哪些行应被处理。 - **操作** (`action`):指定如何处理这些行。 如果没有指定模式,那么所有的行都将被处理;如果没有指定操作,则默认输出所有匹配的行...

    awk教程所速度

    awk的内置变量,如FS和OFS分别代表输入和输出的字段分隔符,NF和NR分别代表当前输入行中的字段数量和记录数量,RS和ORS分别是输入和输出的记录分隔符。 在执行awk脚本时,一般需要指定一个shell环境。awk支持多种...

    awk学习资料最近整理的资料

    它通过模式匹配和动作执行来解析和操作文本,对于日志分析、数据提取和转换等任务非常高效。在shell环境中,awk是程序员和系统管理员的得力助手。 在"awk学习资料最近整理的资料"这个压缩包中,你可以找到一系列...

    awk命令详解大全

    - **awk内置变量**:如`FS`(字段分隔符)、`OFS`(输出字段分隔符)等。 - **awk的内置函数**:如`tolower()`(转换为小写)、`toupper()`(转换为大写)等。 通过以上介绍,我们可以看出awk不仅仅是一个简单的...

    linux awk时间计算脚本及awk命令详解

    awk语言提供了许多内置函数,如数学运算、字符串操作等,以及变量如`NF`(字段数量)和`NR`(已读行数)。 通过awk,你可以实现诸如数据分析、数据过滤、数据转换等多种任务。例如,以下命令提取`last`命令输出的用户名...

    Linux 三剑客 Awk、Sed、Grep 命令详解

    * $0:当前记录 * $1~$n:当前记录的第 N 个字段 * FS:输入字段分隔符,默认为空格 * RS:输入记录分割符,默认为换行符 * NF:字段个数 * NR:记录数 * OFS:输出字段分隔符,默认为空格 * ORS:输出记录分割符,...

    sed&awk101 Hacks

    此外,手册还涉及awk变量的操作符,包括变量、一元操作符、算术操作符、字符串操作符、赋值操作符、比较操作符、正则表达式操作符等。在awk分支和循环部分,介绍了if结构、ifelse结构、while循环、do-while循环、for...

    sed and awk 101 hacks.pdf

    - **变量、一元操作符、算术操作符、字符串操作符、赋值操作符、比较操作符、正则表达式操作符**:Awk提供了一套完整的操作符集合,用于处理变量和执行各种比较和转换。 **Awk分支和循环** - **if结构、ifelse结构...

Global site tag (gtag.js) - Google Analytics