新聞中心
這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
生產(chǎn)環(huán)境中AWK實(shí)用實(shí)例
awk是Linux系統(tǒng)下一個(gè)處理文本的編程語言工具,能用簡短的程序處理標(biāo)準(zhǔn)輸入或文件、數(shù)據(jù)排序、計(jì)算以及生成報(bào)表等等,應(yīng)用非常廣泛。 基本的命令語法:awk option ‘pattern {action}’ file 下面根據(jù)工作經(jīng)驗(yàn)總結(jié)了10個(gè)實(shí)用的awk案例,面試筆試題也經(jīng)常會出,供朋友們參考學(xué)習(xí)。

為興山等地區(qū)用戶提供了全套網(wǎng)頁設(shè)計(jì)制作服務(wù),及興山網(wǎng)站建設(shè)行業(yè)解決方案。主營業(yè)務(wù)為成都網(wǎng)站建設(shè)、網(wǎng)站制作、興山網(wǎng)站設(shè)計(jì),以傳統(tǒng)方式定制建設(shè)網(wǎng)站,并提供域名空間備案等一條龍服務(wù),秉承以專業(yè)、用心的態(tài)度為用戶提供真誠的服務(wù)。我們深信只要達(dá)到每一位用戶的要求,就會得到認(rèn)可,從而選擇與我們長期合作。這樣,我們也可以走得更遠(yuǎn)!
1、分析訪問日志(Nginx為例)
日志格式:
'$remote_addr - $remote_user [$time_local] "$request" $status $body_bytes_sent "$http_referer" "$http_user_agent" "$http_x_forwarded_for"'
統(tǒng)計(jì)訪問IP次數(shù):
# awk '{a[$1]++}END{for(v in a)print v,a[v]}' access.log
統(tǒng)計(jì)訪問訪問大于100次的IP:
# awk '{a[$1]++}END{for(v ina){if(a[v]>100)print v,a[v]}}' access.log
統(tǒng)計(jì)訪問IP次數(shù)并排序取前10:
# awk '{a[$1]++}END{for(v in a)print v,a[v]|"sort -k2 -nr |head -10"}' access.log
統(tǒng)計(jì)時(shí)間段訪問最多的IP:
# awk'$4>="[02/Jan/2017:00:02:00" &&$4 統(tǒng)計(jì)上一分鐘訪問量: # date=$(date -d '-1 minute'+%d/%d/%Y:%H:%M) # awk -vdate=$date '$4~date{c++}END{printc}' access.log 統(tǒng)計(jì)訪問最多的10個(gè)頁面: # awk '{a[$7]++}END{for(vin a)print v,a[v]|"sort -k1 -nr|head -n10"}' access.log 統(tǒng)計(jì)每個(gè)URL數(shù)量和返回內(nèi)容總大?。?# awk '{a[$7]++;size[$7]+=$10}END{for(v ina)print a[v],v,size[v]}' access.log 統(tǒng)計(jì)每個(gè)IP訪問狀態(tài)碼數(shù)量: # awk '{a[$1" "$9]++}END{for(v ina)print v,a[v]}' access.log 統(tǒng)計(jì)訪問IP是404狀態(tài)次數(shù): # awk '{if($9~/404/)a[$1" "$9]++}END{for(i in a)print v,a[v]}' access.log
2、兩個(gè)文件差異對比
文件內(nèi)容:
# seq 1 5 > a
# seq 3 7 > b
找出b文件在a文件相同記錄:
方法1:
# awk 'FNR==NR{a[$0];next}{if($0 in a)print $0}' a b
3
4
5
# awk 'FNR==NR{a[$0];next}{if($0 in a)print FILENAME,$0}' a b
b 3
b 4
b 5
# awk 'FNR==NR{a[$0]}NR>FNR{if($0 ina)print $0}' a b
3
4
5
# awk 'FNR==NR{a[$0]=1;next}(a[$0]==1)' a b # a[$0]是通過b文件每行獲取值,如果是1說明有
# awk 'FNR==NR{a[$0]=1;next}{if(a[$0]==1)print}' a b
3
4
5
方法2:
# awk 'FILENAME=="a"{a[$0]}FILENAME=="b"{if($0 in a)print $0}' a b
3
4
5
方法3:
# awk 'ARGIND==1{a[$0]=1}ARGIND==2 && a[$0]==1' a b
3
4
5
找出b文件在a文件不同記錄:
方法1:
# awk 'FNR==NR{a[$0];next}!($0 in a)' a b
6
7
# awk 'FNR==NR{a[$0]=1;next}(a[$0]!=1)' a b
# awk'FNR==NR{a[$0]=1;next}{if(a[$0]!=1)print}' a b
6
7
方法2:
# awk'FILENAME=="a"{a[$0]=1}FILENAME=="b" && a[$0]!=1' a b
方法3:
# awk 'ARGIND==1{a[$0]=1}ARGIND==2 && a[$0]!=1' a b
3、合并兩個(gè)文件
文件內(nèi)容:
# cat a
zhangsan 20
lisi 23
wangwu 29
# cat b
zhangsan man
lisi woman
wangwu man
將a文件合并到b文件:
方法1:
# awk 'FNR==NR{a[$1]=$0;next}{print a[$1],$2}' a b
zhangsan 20 man
lisi 23 woman
wangwu 29 man
方法2:
# awk 'FNR==NR{a[$1]=$0}NR>FNR{print a[$1],$2}' a b
zhangsan 20 man
lisi 23 woman
wangwu 29 man
將a文件相同IP的服務(wù)名合并:
# cat a
192.168.1.1: httpd
192.168.1.1: tomcat
192.168.1.2: httpd
192.168.1.2: postfix
192.168.1.3: mysqld
192.168.1.4: httpd
# awk 'BEGIN{FS=":";OFS=":"}{a[$1]=a[$1] $2}END{for(v in a)print v,a[v]}' a
192.168.1.4: httpd
192.168.1.1: httpd tomcat
192.168.1.2: httpd postfix
192.168.1.3: mysqld
解讀:
數(shù)組a存儲是$1=a[$1] $2,第一個(gè)a[$1]是以第一個(gè)字段為下標(biāo),值是a[$1] $2,也就是$1=a[$1] $2,值的a[$1]是用第一個(gè)字段為下標(biāo)獲取對應(yīng)的值,但第一次數(shù)組a還沒有元素,那么a[$1]是空值,此時(shí)數(shù)組存儲是192.168.1.1=httpd,再遇到192.168.1.1時(shí),a[$1]通過第一字段下標(biāo)獲得上次數(shù)組的httpd,把當(dāng)前處理的行第二個(gè)字段放到上一次同下標(biāo)的值后面,作為下標(biāo)192.168.1.1的新值。此時(shí)數(shù)組存儲是192.168.1.1=httpd tomcat。每次遇到相同的下標(biāo)(第一個(gè)字段)就會獲取上次這個(gè)下標(biāo)對應(yīng)的值與當(dāng)前字段并作為此下標(biāo)的新值。
4、將第一列合并到一行
# cat file
1 2 3
4 5 6
7 8 9
# awk '{for(i=1;i 1 4 7 2 5 8 3 6 9 解讀: for循環(huán)是遍歷每行的字段,NF等于3,循環(huán)3次。 讀取第一行時(shí): 第一個(gè)字段:a[1]=a[1]1" " 值a[1]還未定義數(shù)組,下標(biāo)也獲取不到對應(yīng)的值,所以為空,因此a[1]=1 。 第二個(gè)字段:a[2]=a[2]2" " 值a[2]數(shù)組a已經(jīng)定義,但沒有2這個(gè)下標(biāo),也獲取不到對應(yīng)的值,為空,因此a[2]=2 。 第三個(gè)字段:a[3]=a[3]3" " 值a[2]與上面一樣,為空,a[3]=3 。 讀取第二行時(shí): 第一個(gè)字段:a[1]=a[1]4" " 值a[2]獲取數(shù)組a的2為下標(biāo)對應(yīng)的值,上面已經(jīng)有這個(gè)下標(biāo)了,對應(yīng)的值是1,因此a[1]=1 4 第二個(gè)字段:a[2]=a[2]5" " 同上,a[2]=2 5 第三個(gè)字段:a[3]=a[3]6" " 同上,a[2]=3 6 讀取第三行時(shí)處理方式同上,數(shù)組最后還是三個(gè)下標(biāo),分別是1=1 4 7,2=2 5 8,3=36 9。最后for循環(huán)輸出所有下標(biāo)值。
5、字符串拆分
字符串拆分:
方法1:
# echo "hello" |awk -F '''{for(i=1;i h e l l o 方法2: # echo "hello" |awk '{split($0,a,"''");for(v in a)print a[v]}' l o h e l
6、統(tǒng)計(jì)出現(xiàn)的次數(shù)
統(tǒng)計(jì)字符串中每個(gè)字母出現(xiàn)的次數(shù):
# echo "a.b.c,c.d.e" |awk -F'[.,]' '{for(i=1;i a 1 b 1 c 2 d 1 e 1
7、費(fèi)用統(tǒng)計(jì)
得出每個(gè)員工出差總費(fèi)用及次數(shù):
# cat a
zhangsan 8000 1
zhangsan 5000 1
lisi 1000 1
lisi 2000 1
wangwu 1500 1
zhaoliu 6000 1
zhaoliu 2000 1
zhaoliu 3000 1
# awk '{name[$1]++;cost[$1]+=$2;number[$1]+=$3}END{for(v in name)print v,cost[v],number[v]}' a
zhangsan 5000 1
lisi 3000 2
wangwu 1500 1
zhaoliu 11000 3
8、獲取某列數(shù)字最大數(shù)
# cat a
a b 1
c d 2
e f 3
g h 3
i j 2
獲取第三字段最大值:
# awk 'BEGIN{max=0}{if($3>max)max=$3}END{print max}' a
3
打印第三字段最大行:
# awk 'BEGIN{max=0}{a[$0]=$3;if($3>max)max=$3}END{for(v in a)if(a[v]==max)print v}'a
g h 3
e f 3
9、去除文本第一行和最后一行
# seq 5 |awk'NR>2{print s}{s=$0}'
2
3
4
解讀:
讀取第一行,NR=1,不執(zhí)行print s,s=1
讀取第二行,NR=2,不執(zhí)行print s,s=2 (大于為真)
讀取第三行,NR=3,執(zhí)行print s,此時(shí)s是上一次p賦值內(nèi)容2,s=3
最后一行,執(zhí)行print s,打印倒數(shù)第二行,s=最后一行
10、獲取Nginx upstream塊內(nèi)后端IP和端口
# cat a
upstream example-servers1 {
server 127.0.0.1:80 weight=1 max_fails=2fail_timeout=30s;
}
upstream example-servers2 {
server 127.0.0.1:80 weight=1 max_fails=2fail_timeout=30s;
server 127.0.0.1:82 backup;
}
# awk '/example-servers1/,/}/{if(NR>2){print s}{s=$2}}' a
127.0.0.1:80
# awk '/example-servers1/,/}/{if(i>1)print s;s=$2;i++}' a
# awk '/example-servers1/,/}/{if(i>1){print s}{s=$2;i++}}' a
127.0.0.1:80
解讀:
讀取第一行,i初始值為0,0>1為假,不執(zhí)行print s,x=example-servers1,i=1
讀取第二行,i=1,1>1為假,不執(zhí)行prints,s=127.0.0.1:80,i=2
讀取第三行,i=2,2>1為真,執(zhí)行prints,此時(shí)s是上一次s賦值內(nèi)容127.0.0.1:80,i=3
最后一行,執(zhí)行print s,打印倒數(shù)第二行,s=最后一行。
這種方式與上面一樣,只是用i++作為計(jì)數(shù)器。
掌握這些awk用法及思路,我相信你在Linux下處理文本無敵了!
網(wǎng)頁名稱:生產(chǎn)環(huán)境中AWK實(shí)用實(shí)例
文章鏈接:http://fisionsoft.com.cn/article/dpjsdgd.html


咨詢
建站咨詢
