shell-awk文本处理工具

1、awk概述

AWK 是一种处理文本文件的语言,是一个强大的文本分析工具
它是专门为文本处理设计的编程语言,也是行处理软件,通常用于扫描、过滤、统计汇总工作
数据可以来自标准输入也可以是管道或文件
linux 上常用的是 gawk,awk gawk 的链接文件
[root@localhost~]# which awk
/usr/bin/awk
[root@localhost~]# ll /usr/bin/awk
lrwxrwxrwx. 1 root root 4 6月  11 07:19 /usr/bin/awk -> gawk

2、awk工作原理

当读到第一行时,匹配条件,然后执行指定动作,再接着读取第二行数据处理,不会默认输出
如果没有定义匹配条件默认是匹配所有数据行, awk 隐含循环,条件匹配多少次动作就会执行多少次逐行读取文本,默认以空格或tab 键为分隔符进行分隔,将分隔所得的各个字段保存到内建变量中,并按模式或者条件执行编辑命令。
sed 命令常用于一整行的处理,而 awk 比较、倾向于将一行分成多个 "" 字段 " 然后再进行处理。 awk
信息的读入也是逐行读取的,执行结果可以通过 print 的功能将字段数据打印显示。在使用 awk 命令的过程中, 可以使用逻辑操作符 " &&" 表示 " " "|| 表示 " " "!" 表示非 "; 还可以进行简单的数学运算,如 +、- 、* / % ^ 分别表示加、减、乘、除、取余和乘方。
正则表达式 : /root/ 匹配含有 root 的行 /*.root/
关系表达式: < > && || + *
匹配表达式: ~ ~ 动作:
变量 命令 内置函数 流控制语句它的语法结构如下:
awk [options] 'BEGIN{ print "start" } ‘pattern{ commands }’ END{ print "end" }'
BEGIN END AWK 的关键字部,因此必须大写;这两个部分开始块和结束块是可选的

3、awk执行流程

BEGIN 语句设置计数和打印头部信息,在任何动作之前进行
END 语句输出统计结果,在完成动作之后执行
AWK 执行流程:读( Read )、执行( Execute )与重复( Repeat
1 Read ):从文件、管道或标准输入中读入一行到内存中
2 执行 Execute ):对每一行数据,根据 AWK 命令按顺序执行。默认情况是处理每一行数据,也可以指定模式
3 重复 Repeat ):一直重复上述两个过程直到文件结束

4、命令格式

awk 选项 ' 模式或条件 { 操作 }' 文件 1 文件 2 ...
awk -f 脚本文件 文件 1 文件 2 ..
格式: awk 关键字 选项 命令部分 '{xxxx}' 文件名
**AWK 支持两种不同类型的变量:内建变量 ( 可直接使用 ) ,自定义变量 awk 内置变量(预定义变量)
FS :指定每行文本的字段分隔符,默认为空格或制表位。
NF :当前处理的行的字段个数。在执行过程中对应于当前的字段数, NF :列的个数
NR :当前处理的行的行号(序数)。 在执行过程中对应于当前的行号
$0 :当前处理的行的整行内容。
$n :当前处理行的第 n 个字段(第 n 列)。比如 : $1 表示第一个字段, $2 表示第二个字段
FILENAME :被处理的文件名 ( 当前输入文件的名 )
FNR 各文件分别计数的行号
OFS 输出字段分隔符(默认值是一个空格)
ORS 输出记录分隔符(默认值是一个换行符)
RS: 行分隔符。 awk 从文件上读取资料时 , 将根据 Rs 的定义把资料切割成许多条记录 , awk 一次仅读入一条记录, 以进行处理。预设值是 " \n'
简说:数据记录分隔,默认为 \n ,即每行为一条记录

5、内建变量(FS NF NR $0 $n)

awk 包含几个特殊的内建变量(可直接用)如下所示:
FS :指定每行文本的字段分隔符,默认为空格或制表位(\t)。
NF :当前处理的行的字段个数()。
NR :当前处理的行的行号(序数)。
$0 :当前处理的行的整行内容
$n :当前处理行的 n 个字段(第 n 列)
FILENAME :被处理的文件名。
RS: 行分隔符。 awk 从文件上读取资料时 , 将根据 Rs 的定义把资料切割成许多条记录 , awk 一次仅读入一
条记录 , 以进行处理。预设值是 " \n'
简说:数据记录分隔,默认为 \n ,即每行为一条记录
[root@localhost ~] #awk 'patterm{action}'
[root@localhost ~] #awk ' '                # 什么都不写 空没有效果
[root@localhost ~] #awk '{print}'              #把输入内容再 打印一遍
[root@localhost ~] #awk '{print "hello"}'                     输入任何内容都打印hello
# 字符串需要添加双引号,单引号已被使用
[root@localhost ~] #awk '{print "hello"}' < /etc/passwd         
把/etc/passwd内容输出到awk,所有/etc/passwd内容显示成hello
[root@localhost ~] # cat /etc/passwd | head -10 > zz            #把/etc/passwd前10行输入到zz
[root@localhost ~] # awk '{print}' zz                     #打印文件zz
[root@localhost ~] # awk  '{print $1}' zz           #以默认空格为分隔,打印zz第一列
[root@localhost ~] # awk -F: '{print $1}' zz           #以:为分隔,打印zz第一列
root:x:0:0:root:/root:/bin/bash //awk 默认把这一行当做一列,因为没有被空格分隔, awk
认以空格或 tab 键分隔
[root@localhost ~] # awk -F: '{print $5}' zz          # 以:为分隔符,打印第五列
[root@localhost ~] # awk -Fx '{print $1}' /etc/passwd          #以  为分隔符 ,打印第一列
[root@localhost ~] # awk '{print $1 $2}' zz
[root@localhost ~] # awk '{print $1" "$2}' zz           #双引号中间加一个空格,空格作用
[root@localhost ~] # awk '{print $1,$2}' zz              # 逗号有空格效果
[root@localhost ~] # awk -F: '{print $1"\t"$2}' /etc/passwd        #用制表符作为分隔符
[root@localhost ~] # awk -F[:/] '{print $9}' zz
// 定义多个分隔符,只要看到其中一个都算作分隔符

6、内置变量($0 $1 NF NR)

awk 常用内置变量: $1 $2 NF NR $0
$1 :代表第一列
$2 :代表第二列以此类推
$0 :代表整行
NF:一行的列数
NR:行数
[root@localhost ~] # awk -F: '/root/{print $0}' zz               // 打印包含 root 的整行内容
[root@localhost ~] # awk -F: '/root/{print $1}' zz               // 打印包含 root 的行的第一列
[root@localhost ~] # awk -F: '/root/{print $1,$6}' zz           // 打印包含 root 行的第1列和第6列
[root@localhost ~] # awk '/root/' /etc/passwd                 //输出包含root的行
[root@localhost ~] # awk -F[:/] '{print NF}' zz               // 打印每一行的列数
[root@localhost ~] # awk '{print NR}' zz
[root@localhost ~] # awk -F[:/] '{print NR}' zz                            //显示行号
[root@localhost ~] # awk -F: '{print NR}' zz
[root@localhost ~] # awk -F: '{print NR,$0}' pass.txt         //显示行号,并打印每一行
[root@localhost ~] # awk 'NR==2' zz              //打印第二行  (不加 print 也一样,默认就是打印)
[root@localhost ~] # awk 'NR==2{print}' /etc/passwd 
[root@localhost ~] # awk -F: 'NR==2{print $1}' /etc/passwd // 打印第二行的第一列
[root@localhost ~] # awk -F: '{print $NF}' /etc/passwd // 打印最后一列
[root@localhost ~] # awk 'END{print NR}' zz                 // 打印最后一行行号,相当于总行数
[root@localhost ~] # awk 'END{print $0}' zz               // 打印文件最后一行
[root@localhost ~] # awk -F: '{print " 当前行有 "NF" "}' zz
[root@localhost ~] # awk -F: '{print " "NR" 行有 "NF" "}' zz     // 第几行有几 列
扩展生产案列:网卡的 ip 、流量
[root@localhost ~] # ifconfig ens33 | awk '/netmask/{print " 本机的 ip 地址是 "$4}'
打印 ifconfig ens33 包含 netmask 行 的第四列
[root@localhost ~] # ifconfig ens33 | awk '/RX p/{print $5" 字节 "}'
打印 ifconfig ens33 包含  RX p  行 的第五列
# 根分区的可用量
[root@localhost ~] # df -h | awk 'NR==2{print $4}'
打印 df -h 第二行 第四列

7、BEGIN END 运算

逐行执行开始之前执行什么任务,结束之后再执行什么任务,用 BEGIN END
BEGIN 一般用来做初始化操作,仅在读取数据记录之前执行一次
END 一般用来做汇总操作,仅在读取完数据记录之后执行一次
awk 的运算:
[root@localhost ~] # awk 'BEGIN{x=10;print x}'
// 如果不用引号 awk 就当作一个变量来输出了,所以不需要加$
10
[root@localhost ~] # awk 'BEGIN{x=10;print x+1}'
//BEGIN 在处理文件之前,所以后面不跟文件名也不影响
11
[root@localhost ~] # awk 'BEGIN{x=10;x++;print x}'
11
[root@localhost ~] # awk 'BEGIN{print x+1}'
// 不指定初始值,初始值就为 0 ,如果是字符串,则默认为空
1
[root@localhost ~] # awk 'BEGIN{print 2.5+3.5}'           // 小数也可以运算
6
[root@localhost ~] # awk 'BEGIN{print 2-1}'
1
[root@localhost ~] # awk 'BEGIN{print 3*4}'
12
[root@localhost ~] # awk 'BEGIN{print 3**2}'     
9
[root@localhost ~] # awk 'BEGIN{print 2^3}'                  //^ ** 都是幂运算
8
[root@localhost ~] # awk 'BEGIN{print 1/2}'
0 .5
[root@localhost ~] # awk -F: '/root/' /etc/passwd               //包含 root 的行
// 如果后面有具体打印多少列就没法省略print

8、模糊匹配(~、!~)

模糊匹配,用 ~ 表示包含, !~ 表示不包含
[root@localhost ~] # awk -F: '$1~/root/' zz                     #第一列包含 root 的行
[root@localhost ~] # awk -F: '$1~/ro/' zz               #第一列包含 ro 的行
// 模糊匹配,只要有 ro 就匹配上
[root@localhost ~] # awk -F: '$7!~/nologin$/{print $1,$7}' /etc/passwd
第七列不包含以 nologin 结尾的行 ,并打印第一列第七列

9、数值与字符串的比较(==  !=  >  <)

比较符号: ==    !=    <=    >=    <    >
[root@localhost ~] # awk 'NR==5{print}' zz
[root@localhost ~] # awk 'NR==5' zz                     #打印第5行
[root@localhost ~] # awk 'NR<5' /etc/passwd              #打印行号小于5的行
[root@localhost ~] # awk -F: '$3==0' /etc/passwd             #打印第3列=0的行
      
[root@localhost ~] # awk -F: '$1=="root"' /etc/passwd         #打印第1列=root的行
[root@localhost ~] # awk -F: '$3>=1000' /etc/passwd          #打印带3列uid >= 1000的行
uid >=1000 为普通用户

10、逻辑运算 (&& 、||)

&& || 是逻辑运算符,用于组合多个条件并控制程序流程。
&&(而且)  要求所有条件都为真时才为真,否则为假。
|| (或)       只要有一个条件为真就为真,全为假时才为假。
[root@localhost ~] # awk -F: '$3<10 || $3>=1000' /etc/passwd   第3列小于10或大于等于1000
[root@localhost ~] # awk -F: '$3>10 && $3<1000' /etc/passwd      第3列大于10而且小于1000
[root@localhost ~] # awk -F: 'NR>4 && NR<10' /etc/passwd           行号大于4小于10
打印 1-200 之间所有能被 7 整除并且包含数字 7 的整数数字
[root@localhost ~] # seq 200 | awk '$1%7==0 && $1~/7/'

FSOFSNRFNRRSORS

其他内置变量的用法 FS (输入)、 OFS NR FNR RS ORS
FS 输入字段的分隔符 默认是空格
OFS 输出字段的分隔符 默认也是空格
FNR :读取文件的记录数(行号),从 1 开始,新的文件重新重 1 开始计数,把一个文件追加到另一个文件,行号不累计
NR :行号累计
RS :输入行分隔符 默认为换行符, 把一行内容按照分隔符分割 换行输出
ORS :输出行分隔符 默认也是为换行符, 把多行合并成一行输出

FS输入字段的分隔符

[root@localhost ~] # awk 'BEGIN{FS=":"}{print $1}' pass.txt     
以 :为分隔符,打印第一列

OFS:输出字段的分隔符

[root@localhost ~] # awk 'BEGIN{FS=":";OFS="---"}{print $1,$2}' pass.txt
以:为分隔符,输出时以 --- 为分隔符 ,打印第1第2列
#OFS 定义了输出时以什么分隔, $1$2 中间要用逗号分隔,因为逗号默认被映射为 OFS 变量,而这个变量默认是空格

FNR:一个文件追加到另一个文件,行号不累计

[root@localhost ~] # awk '{print FNR,$0}' /etc/resolv.conf /etc/hosts
把 /etc/hosts 追加到 /etc/resolv.conf ,打印行号和内容       FNR行号不追加

NR:一个文件追加到另一个文件,行号累计

[root@localhost ~] # awk '{print NR,$0}' /etc/resolv.conf /etc/hosts
把 /etc/hosts 追加到 /etc/resolv.conf ,打印行号和内容       FNR行号追加

RS:一行内容按照分隔符分割 换行输出

[root@localhost ~] # awk 'BEGIN{RS=":"}{print $0}' /etc/passwd
把一行内容以 :为分隔符 分割 ,换行输出
#RS: 指定以什么为换行符,这里指定是冒号,你指定的肯定是原文里存在的字符

ORS:多行合并成一行输出

[root@localhost ~] # awk 'BEGIN{ORS=" "}{print $0}' /etc/passwd
// 把多行合并成一行输出,输出时以空格为分隔符    (本来默认的是回车键)

11、 awk高级用法(变量)

# 定义引用变量
[root@localhost ~] # a=100
[root@localhost ~] # awk -v b="$a" 'BEGIN{print b}'
# 将系统的变量 a ,在 awk 里赋值为变量 b ,然后调用变量 b -v 选项将其传递给 awk
100
[root@localhost ~] # awk 'BEGIN{print " '$a' "}'      // 直接调用的话需要先用双引号再用单引号
100
[root@localhost ~] # awk -vc=10 'BEGIN{print c}'                //awk 直接定义变量并引用
10
[root@localhost ~] # awk -vc=$a 'BEGIN{print c}'
100
[root@localhost ~] # seq 10 | awk '{getline;print $0}'          // 显示1-10偶数行
[root@localhost ~] # seq 10 | awk '{print $0;getline}'            // 显示1-10奇数行
[root@localhost ~] # df -h | awk 'BEGIN{getline}/root/{print $0}'
在 df -h 偶数行里  打印包含 root 的行
# 调用函数 getline,读取一行数据的时候并不是得到当前行而是当前行的下一行

12、 awk if语句(单、双、多)

awk if 语句也分为单分支、双分支和多分支
[root@localhost ~] # awk -F: '{if($3<10){print $0}}' /etc/passwd      // 第三列小于 10 的打印整行
[root@localhost ~] # awk -F: '{if($3<10){print $3}else{print $1}}' /etc/passwd
// 第三列小于 10 的打印第三列,否则打印第一列

13、 BEGIN END 流程

awk 还支持 for 循环、 while 循环、函数、数组等
其他
awk 'BEGIN{ commands } pattern{ commands } END{ commands }'
第一步:运行 BEGIN{ commands } 语句块中的语句。
第二步:从文件或标准输入 (stdin) 读取一行。然后运行 pattern{ commands } 语句块,它逐行扫描文
件,从第一行到最后一行反复这个过程。直到文件所有被读取完成。
第三步:当读至输入流末尾时,运行 END{ commands } 语句块。
BEGIN 语句块在 awk 开始从输入流中读取行之前被运行,这是一个可选的语句块,比方变量初始化、打印输出表格的表头等语句通常能够写在BEGIN 语句块中。
END 语句块在 awk 从输入流中读取全然部的行之后即被运行。比方打印全部行的分析结果这类信息汇总都是在END 语句块中完毕,它也是一个可选语句块。
pattern 语句块中的通用命令是最重要的部分,它也是可选的。假设没有提供 pattern 语句块,则默认运行{ print } ,即打印每个读取到的行。 awk 读取的每一行都会运行该语句块。
这三个部分缺少任何一部分都可以
[root@localhost ] #awk 'BEGIN{x=0};/\/bin\/bash$/ {x++;print x,$0};END{print x}' /etc/passwd
# 统计以 / bin/bash 结尾的行数
开始模块 x=0 ;工作模块:以/bin/bash结尾的行,x+1,并打印当前x和内容  ;  结束模块:打印x
[root@localhost ~] #grep -c "/bin/bash$" /etc/passwd
BEGIN 模式表示,在处理指定的文本之前,需要先执行 BEGIN 模式中指定的动作 ; awk 再处理指定的文本,之后再执行END 模式中指定的动作, END{} 语句块中,往往会放入打印结果等语句
[root@localhost ~] #awk -F ":" '! ($3<200){print} ' /etc/passwd
# 输出第 3 个字段的值不小于 200 的行

[root@localhost ~]awk -F: '$3>=1000{print}' /etc/passwd

[root@localhost ~]awk -F: '{if ($3>=1000){print}}' /etc/passwd

[root@localhost ~]#awk 'BEGIN {FS=":"} ;!($3<1000){print}' /etc/passwd

[root@localhost ~] #awk 'BEGIN {FS=":"} ;{if($3>=1000){print}}' /etc/passwd
# 先处理完 BEGIN 的内容,再打印文本里面的内容
[root@localhost ~] #awk -F ":" ' {max=($3>=$4) ?$3:$4; {print max}} ' /etc/passwd
#($3>$4)?$3:$4 三元运算符,如果第 3 个字段的值大于等于第 4 个字段的值,则把第 3 个字段的值赋给 max , 否则第4 个字段的值赋给 max
[root@localhost ~] #awk -F ":" '{print NR,$0}' /etc/passwd
# 输出每行内容和行号,每处理完一条记录, NR 值加 1
[root@localhost ~] #sed -n '=;p' /etc/passwd
-n 关闭打印           = 输出行号          ;多个模式用;隔开
[root@localhost ~] #awk -F ":" '$7~"bash"{print $1,47}' /etc/passwd
# 输出以冒号分隔  且   第 7 个字段中包含 bash 的行   的第 1 个字段
[root@localhost ~] #awk -F: '/bash/ {print $1}' /etc/passwd
[root@localhost ~] #awk -F":" '($1~"root") && (NF==7) {print $1,$2,$NF } ' /etc/passwd
# 1 个字段中包含 root 且有 7 个字段的行的第 1 2字段和最后一 个字段
[root@localhost ~] #awk -F ":" '($7!="/bin/bash")&&($7!="/sbin/nologin"){print} ' /etc/passwd
# 输出第 7 个字段既不为 /bin/bash ,也不为 /sbin/nologin 的所有行
[root@localhost ~] #awk -F: '($NF !=" /bin/bash")&&($NF !=" /sbin/nologin" ) {print NR, $0}' passwd
最后一列不等于 /bin/bash 而且 最后一列不等于 /sbin/nologin 的行,打印行号和内容
通过管道、双引号调用 shell 命令 :
[root@localhost ~] #echo $PATH | awk 'BEGIN{RS=":"};END {print NR}'
# 统计以冒号分隔的文本段落数, END{ } 语句块中,往往会放入打印结果等语句
[root@localhost ~] #echo $PATH | awk 'BEGIN{RS=":"};{print NR,$0};END {print NR}'
[root@localhost ~]# grep -c "bash$" etc/passwd
[root@localhost ~] #awk -F: '/bash$/{print | "wc -l"}' /etc/passwd
# 调用 wc -l 命令统计以 bash结尾 的个数
[root@localhost ~] #awk -F: '/bash$/ {print}' /etc/passwd | wc -l
[root@localhost ~] #free -m |awk '/Mem:/ {print int($3/($3+$4)*100)"%"}'
# 查看当前内存使用百分比
int 取整
包含Mem:的行,打印第3列 / (第3列+第4列) *100 ,取整,再加上 %
[ root@localhost ~] # free -m | awk '/Mem:/ {print $3/$2}'0.327869
[root@localhost ~] # free -m | awk '/Mem:/ {print $3/$2*100}'
32.7869
[ root@localhost ~] # free -m | awk '/Mem:/ {print int($3/$2*100)}'
32
int 取整
[ root@localhost ~] # free -m | awk '/Mem:/ {print int($3/$2*100) "%"}’
32%
[root@localhost ~] #free -m | awk '/Mem:/ {print $3/$2*100}' | awk -F. '{print $1 "%"}'
包含Mem:的行,打印第3列 / 第2列 *100      ,      打印第一列,再加上 %
[root@localhost ~] #top -b -n 1 | grep Cpu | awk -F ',' '{print $4}'| awk '{print $1}'
# 查看当前 CPU 空闲率, ( -b -n 1 表示只需要 1 次的输出结果 )
  • us: 用户空间进程使用的CPU
  • sy: 内核空间进程使用的CPU/系统
  • ni: Nice优先级调整的进程使用的CPU
  • id: CPU空闲状态的时间
  • wa: 等待I/O操作的时间
  • hi: 处理硬件中断的时间
  • si: 处理软件中断的时间
  • st: 在虚拟化环境中,其他虚拟机使用CPU的时间
[root@localhost ~] #date -d "$(awk -F "." '{print $1}'/proc/uptime) second ago"+"%F%H:%M:%S" 
显示上次系统重启时间,等同于 uptime; second ago 为显示多少秒前的时间, + $” 选日 :3N:3S 等同于 + "3Y-n-%d 3 :8N:8S" 的时间格式

在awk里调用函数

awk 'BEGIN{"函数名" | getline;{print  }}'

[root@localhost ~] #seq 10 | awk ' {getline; print $0 }'
[root@localhost ~] #seq 10 | awk ' { print $0 ; getline } '
[root@localhost ~] #awk 'BEGIN { "hostname" | getline ; {print $0}}'
# 调用 hostname, 并输出当前的主机名
# getline 左右无重定向符 "<" "I" 时, awk 首先读取到了第一行,就是 1 ,然后 getline ,就得到了 1 下面的第二行,就是2 ,因为 getline 之后, awk 会改变对应的 NE NR FNR $0 等内部变量,所以此时的 $O 的值就不再是1 ,而是 2 了,然后将它打印出来。
[root@localhost ~] # awk 'BEGIN {n=0 ; while ("w" | getline) n++ ; {print n-2}}'
# 调用 w 命令,并用来统计在线用户数
  • BEGIN 块初始化计数器n为0
  • while ("w" | getline) 使用getline从命令w的标准输出中读取每一行
  • n++ 每读取一行,计数器n递增1
  • {print n-2} 在所有行读取完成后,打印计数器n的值减去2(前两行)
[root@localhost home]# w | awk 'NR==1'| awk -F, '{print $2}'| awk '{print $1}'

 
getline 左右有重定向符 "<" "I" 时, getline 则作用于定向输入文件,由于该文件是刚打开 ,
并没有被 awk 读入一行 , 只是 getline 读入,那么 getline 返回的是该文件的第一行,而不是隔行。
CPU 使用率
cpu_us = `top -b -n 1 | grep Cpu | awk '{print $2 }'`
# 用户空间程序 CPU 的占用的比列
cpu_sy = `top -b -n 1 | grep Cpu | awk -F ',' '{print $2 }' | awk '{print $1 }'`
# 系统占用的时间比列
cpu_sum = $(echo " $cpu_us + $cpu_sy " | bc)
echo $cpu_sum
``(反撇号)  :    允许将执行某个命令的屏幕输出结果赋值给变量
bc   :   支持小数运算
echo "A B C D" | awk 'BEGIN{OFS="|"};{print $0;$1=$1;print $0}'
echo "A B C D" | awk '{OFS="|"; print $0;$1=$1;print $0}'
A B C D
A|B|C|D
$1 = $1 是用来激活 $0 的重新赋值,也就是说字段 $1 ... 和字段数 NF 的改变会促使 awk 重新计算 $0 的值 , 通常是在改变 OFS 后而需要输出 $0 时这样做
  • print $0 打印原始行,使用新设置的字段分隔符。
  • $1=$1 $1=$1是用来激活$0的重新赋值
  • print $0 再次打印行,这次使用新设置的字段分隔符。

echo "A B C D" | awk 'BEGIN{OFS="|"};{print $0;$1=$1;print $1,$2}'

echo "A B C D" | awk 'BEGIN{OFS="|"};{$2=$2;print $1,$2}'

14、AWK 数组

 BEGIN 中的命令只执行一次
  awk数组的下标除了可以使用数字,也可以使用字符串,字符串需要使用双引号
[root@localhost ~] #awk 'BEGIN{a[0]=10;a[1]=20;print a[1]}'
20
[root@localhost ~] #awk 'BEGIN{a[0]=10;a[1]=20;print a[0]}'
10
[root@localhost ~] #awk 'BEGIN{a["abc"]=10;a["xyz"]=20;print a["abc"]}'
10
[root@localhost ~] #awk 'BEGIN{a["abc"]=10;a["xyz"]=20;print a["xyz"]}'
20
[root@localhost ~] #awk 'BEGIN{a["abc"]="aabbcc";a["xyz"]="xxyyzz";print a["xyz"]}'
xxyyzz

15、AWK 循环

生产案列:
# 结合数组和 for 循环
[root@localhost ~] # awk 'BEGIN{a[0]=10;a[1]=20;a[2]=30;for(i in a){print i,a[i]}}'
使用 awk 统计 httpd 访问日志中每个客户端 IP 的出现次数 ?
[root@localhost ~] # awk '{a[$1]+=1;} END {for(i in a){print a[i]" "i;}}' /var/log/httpd/access_log | sort -r
[root@localhost ~] # awk '{ip[$1]++;}END{for(i in ip){print ip[i],i}}' /var/log/httpd/access_log | sort -r
备注 : 定义数组,数组名称为 ip ,数字的下标为日志文件的第 1 列(也就是客户端的 IP 地址 ) ++ 的目的在于对客户端进行统计计数,客户端IP 出现一次计数器就加 1 END 中的指令在读取完文件后执行,通过循环将所有统计信息输出,for 循环遍历的是数组名 ip 的下标。
可用 awk 来统计固定格式日志里的一些数据,如日志中出现过所有不同的 IP awk 对文件进行流处理,每次读取一行。 $1 就是 IP count[i] ++ 是将 IP 作为一个数组的下标,并且使得统计
这个 IP 所对应的数组元素自增 1.END 后面的语句是打印结果,只执行一次
awk {i = $1 ;count[i] ++ }END{for(i in count)print(i,count[i])}’ /var/log/httpd/access_log
[root@localhost ~] # awk '{a[$1] += 1;} END {for (i in a) printf("%d %s\n", a[i], i);}'
# 日志文件 | sort -n | tail -n 10 # tail 显示最后 10
攻防脚本
防暴力破解脚本
登录失败超过三次加入黑名单
[root@localhost ~] # awk '/Failed password/ {print $0} ' /var/log/secure
[root@localhost ~] # awk '/Failed password/ {print $11} ' /var/log/secure
[root@localhost ~] # awk '/Failed/{ip[$11]++}END{for(i in ip){print i","ip[i]}}' /var/log/secure
# 中断 几次
[root@localhost ~] # awk '/Failed password/{ip[$11]++}END{for(i in ip){print i","ip[i]}}' /var/log/secure
# 失败几次
脚本编写
#!/bin/ bash
x = `awk '/Failed password/{ip[ $1 1]++}END{for(i in ip){print i","ip[i]}}'
/var/log/secure`
#190.168.10.22 3
for j in $x
do
ip = `echo $j | awk -F "," '{print $1 }'`
num = `echo $j | awk -F "," '{print $2 }'`
if [ $num -ge 3 ];then
echo " 警告 ! $ip 访问本机失败了 $num 次,请速速处理 !"
fi
don
试题
怎么提取版本号 1 .9.7 给你道面试题
ant-1.9.7.jar
ant-launcher-1.9.7.jar
antlr-2.7.7.jar
antlr-runtime-3.4.jar
aopalliance-1.0.jar
archaius-core-0.7.6.jar
asm-5.0.4.jar
aspectjweaver-1.9.5.jar
bcpkix-jdk15on-1.64.jar
bcprov-jdk15-1.46.jar
bcprov-jdk15on-1.64.jar
checker-compat-qual-2.5.5.jar
[root@localhost /] #cat ceshi.txt |sed -r 's/.*-(.*)\.jar/\1/'
1 .9.7
1 .9.7
2 .7.7
3 .4
1 .0
0 .7.6
5 .0.4
1 .9.5
1 .64
1 .46
1 .64
2 .5.5
  • sed 是一个文本编辑工具,用于执行文本替换等操作。
  • -r 选项启用扩展正则表达式(ERE),使正则表达式的语法更加灵活。
  • 's/.*-(.*)\.jar/\1/' 是sed的替换命令,其中:
    • s/ 表示替换命令的开始。
    • .*-(.*)\.jar 是一个正则表达式,用于匹配行中的字符串,直到找到第一个-字符,然后捕获-后面的任意字符直到.jar为止。
    • \1 是对正则表达式中第一个括号捕获组的引用,这里引用了捕获的-后面的部分。
    • 整个命令的意思是替换行中的内容,保留从-.jar之间的部分,并去除其他内容。

awk '{match($0,/[0-9]+\.[0-9]+\.[0-9]+/,m);if (m[0])print m[0];}' ceshi.txt |uniq|awk '$1=="1.9.7"'

附加
需求 :1.txt 文件中的内容 帅选出第一列 第三列 并且打印为一行,同时需求两列内容相隔 2 个空格
zhangsan 20 江苏南京 汉族 内容 文件名称 1.txt
sed -e 's/[[:space:]]/\n/g' /root/text1.txt | grep -v ^ $ |tr "\n" "_" | awk -
F '_' 'BEGIN{num=0;}{for(i=0;i<NF;i++){num=num+1}}END{for(x=1;x<num;x++){if(x==1)
{printf $x}else{printf "_"$x}} }'
6 、总结
grep egrep 文本过滤 ( 更适合单纯的查找或匹配文本 )
sed 流编辑器 实现编辑的 ( 更适合编辑匹配到的文本 )
awk 文本报告生成器 实现格式化文本输出 ( 更适合格式化文本,对文本进行较复杂格式处理 )

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/51315.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

NSS [NSSRound#18 Basic]easy_rw

NSS [NSSRound#18 Basic]easy_rw 题目描述&#xff1a;弱口令就完事了 入口&#xff1a;/dolphinscheduler 靶机启动需要1分钟。 这题有两种做法。CVE-2023-48796、CVE-2024-23320 先说CVE-2023-48796 Apache DolphinScheduler是一个分布式、易扩展、可视化的工作流任务调度…

【redis】一致性hash算法和hash槽

普通hash取模 直接hash(key)%N , N为机器的数量&#xff0c;但不利于集器扩容或者缩容 一致性hash算法和hash槽 一致性hash算法是在redis 分片中使用&#xff0c;hash槽在redis cluster&#xff08;集群&#xff09;中使用 Redis一致性hash&#xff1a;Redis一致性hash是为…

Netdevops入门之Telnetlib语法案例

1、Telnetlib模块&#xff1a; 支持telnet/ssh远程访问的模块很多&#xff0c;常见的有telnetlib、ciscolib、paramiko、netmiko、pexpect,其中telnetlib和ciscolib对应telnet协议&#xff0c;后面3个对应SSH协议。 ①-通过ENSP环境搭建实验环境 ②-基础语法-telnetlib案例1&…

16现代循环神经网络—深度循环与双向循环

目录 1.深度循环神经网络回顾:循环神经网络总结简洁代码实现2.双向循环神经网络隐马尔可夫模型中的动态规划双向模型模型的计算代价及其应用总结代码实现1.深度循环神经网络 回顾:循环神经网络 如何将循环神经网络变深,以获得更多的非线性? 通过添加多个隐藏层的方式来实现…

解决git每次push代码到github都需要输入用户名以及密码

产生原因&#xff1a; 出现以上情况的主要原因在于采用的是 https 方式提交代码&#xff0c; 如果采用的是 ssh 方式只需要在版本库中添加用户的 sha 的key就可以实现提交时无需输入用户名和密码。 解决方法 在终端中使用以下命令删除原先已经建立的http的链接方式&#xff0c…

git实践汇总【配置+日常使用+问题解决】

**最初配置步骤&#xff1a;** git config --global user.name "yournemae" git config --global user.email "yourmail" git config -l ssh-keygen -t rsa -C “xxx.xxxx.EXTcccc.com” git config --global ssh.variant ssh $ git clone git仓库路径 git…

洗地机哪家好?四款洗地机好洗地机的品牌推荐

随着“懒人经济”的兴起&#xff0c;洗地机作为家居清洁领域的革新者&#xff0c;正逐步融入越来越多家庭的生活之中。面对市场上繁多的洗地机品牌与型号&#xff0c;消费者往往感到难以抉择&#xff1a;“洗地机哪个牌子最佳&#xff1f;”为了解答这一疑问&#xff0c;本文精…

KubeSphere介绍及一键安装k8s

KubeSphere介绍 官网地址&#xff1a;https://kubesphere.io/zh/ KubeSphere愿景是打造一个以 Kubernetes 为内核的云原生分布式操作系统&#xff0c;它的架构可以非常方便地使第三方应用与云原生生态组件进行即插即用&#xff08;plug-and-play&#xff09;的集成&#xff0…

C++ | Leetcode C++题解之第284题窥视迭代器

题目&#xff1a; 题解&#xff1a; template <class T> class PeekingIterator : public Iterator<T> { public:PeekingIterator(const vector<T>& nums) : Iterator<T>(nums) {flag Iterator<T>::hasNext();if (flag) {nextElement Ite…

【MyBatis】基础操作

准备工作 准备数据库表创建 springboot工程&#xff0c;选择引入对应的起步依赖&#xff08;mybatis、mysql驱动、lombok&#xff09;application.properties中引入数据库连接信息创建对应的实体类 Emp&#xff08;实体类属性采用驼峰命名&#xff09;准备Mapper接口 EmpMappe…

【C语言】队列的实现(数据结构)

前言&#xff1a; 相信大家在生活中经常排队买东西&#xff0c;今天学习的队列就跟排队买东西一样&#xff0c;先来买的人就买完先走&#xff0c;也就是先进先出。废话不多说&#xff0c;进入咱们今天的学习吧。 目录 前言&#xff1a; 队列的概念 队列的实现 队列的定义 …

DDR等长,到底长度差多少叫等长?

DDR4看这一篇就够了 - 知乎 (zhihu.com) 【全网首发】DDR4 PCB设计规范&设计要点PCB资源PCB联盟网 - Powered by Discuz! (pcbbar.com) 终于看到较为权威的DDR4等长要求了: !!!! 依据这个要求&#xff0c;H616项目的等长线不合格&#xff1a;

Vue的指令语法、双向绑定、el和data的另一种写法、MVVM模型

目录 1. 指令语法1.1 双向绑定 2. el和data的另一种写法3. MVVM模型 1. 指令语法 用于解析标签&#xff08;包括&#xff1a;标签属性、标签体内容、绑定事件…&#xff09;。Vue中有很多的指令&#xff0c;且形式都是&#xff1a;v-xxxx&#xff0c;此处我们只是拿v-bind举个…

C++第二十八弹---进一步理解模板:特化和分离编译

✨个人主页&#xff1a; 熬夜学编程的小林 &#x1f497;系列专栏&#xff1a; 【C语言详解】 【数据结构详解】【C详解】 目录 1. 非类型模板参数 2. 模板的特化 2.1 概念 2.2 函数模板特化 2.3 类模板特化 2.3.1 全特化 2.3.2 偏特化 2.3.3 类模板特化应用示例 3. …

前端学习7——自学习梳理

​​​​​​jQuery 教程 | 菜鸟教程jQuery 教程 jQuery 是一个 JavaScript 库。 jQuery 极大地简化了 JavaScript 编程。 jQuery 很容易学习。 本章节的每一篇都包含了在线实例 通过本站的在线编辑器&#xff0c;你可以在线运行修改后的代码&#xff0c;并查看运行结果。 实例…

Redis的事务_乐观锁与悲观锁

目录 一 Redis事务-介绍 二 事务的基本操作 三 Redis事务-乐观锁与悲观锁 四 Redis事务-特性 一 Redis事务-介绍 Redis事务可以一次执行多个命令&#xff0c;本质是一组命令的集合&#xff0c;一个事务中的所有命令都会序列化&#xff0c;按顺序的串行化执行&#xff0c;而…

【开源库学习】libodb库学习(十二)

13 数据库架构演变 当我们添加新的持久类或更改现有的持久类时&#xff0c;例如&#xff0c;通过添加或删除数据成员&#xff0c;存储新对象模型所需的数据库模式也会发生变化。同时&#xff0c;我们可能有包含现有数据的现有数据库。如果应用程序的新版本不需要处理旧数据库&a…

使用 XRDP 远程linux主机

一、简介 XRDP是一个开源的远程桌面协议&#xff08;Remote Desktop Protocol,RDP&#xff09;服务器&#xff0c;采用的是标准的RDP。 官网地址&#xff1a;https://www.xrdp.org/ github地址&#xff1a; https://github.com/neutrinolabs/xrdp/releases XRDP也是C/S架构&…

Springboot 整合Elasticsearch

1 java操作ES方式 1.1 操作ES 9300端口(TCP) 但开发中不在9300进行操作 ES集群节点通信使用的也是9300端口如果通过9300操作ES&#xff0c;需要与ES建立长连接 可通过引入spring-data-elasticsearch:transport-api.jar不在9300操作原因&#xff1a;1.springboot版本不同&…

springboot电影院线上购票系统-计算机毕业设计源码68220

目录 摘要 1 绪论 1.1 选题背景与意义 1.2国内外研究现状 1.3论文结构与章节安排 2系统分析 2.1.1 技术可行性分析 2.1.2 经济可行性分析 2.1.3 法律可行性分析 2.2 系统流程分析 2.2.1 添加信息流程 2.2.2 修改信息流程 2.2.3 删除信息流程 2.3 系统功能分析 2.…