在日志文件中有若干行,其中每一行有2个IP, 第一个IP是每一行的第一列,第二个IP的位置不固定,在有的行中是第7列,有的是第8列,有的是第9列,总之不固定。
现在需要利用Linux下的awk、sed、grep等工具,把每行的第二个IP段提取出来。求大神解答啊喵喵QAQ
举例:
log文件如下:
10.10.9.1 test 8:00 www.www.com HTTP/1.1 200 134.123.78.127
10.10.9.2 test2 8:01 www.com HTTP/1.1 200 124.113.28.27
10.10.9.2 test2 8:01 www.com HTTP/1.1 200 (a=b) 124.113.28.33
10.10.9.2 test2 8:01 www.com HTTP/1.1 200 (a=b c=d) 124.113.10.28
10.10.9.2 test2 8:01 www.com HTTP/1.1 200 (a=b c=d) test 124.113.28.27
10.10.9.2 test2 8:01 www.com HTTP/1.1 200 (a=b c=d) test (e=f) 124.113.28.27
输入如下:
10.10.9.1 134.123.78.127
10.10.9.2 124.113.28.27
10.10.9.2 124.113.28.33
10.10.9.2 124.113.10.28
10.10.9.2 124.113.28.27
10.10.9.2 124.113.28.27
问题补充
要取的第二个IP不是最后一列,后面还有数据
awk '{print $1, $(NF)}' tmp.log
So easy. awk脚本如下:
{
for (i = 1; i <= NF; i++) {
if ($i ~ /^[0-9]+\.[0-9]+\.[0-9]+\.[0-9]+/) {
printf "%s ", $i
}
}
printf "\n"
}
用awk比较简单
awk '{print $NF}'
# $NF的意思是最后一个 默认以空格分隔 $NF-1 就是倒数第二个 以此类推
如果你的log不是默认以空格分隔的 可以加上 -F 参数 -F "我是分隔符"
如果是最后一列的话,用
awk '{print $NF}'