日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > linux >内容正文

linux

linux下日志晒选打包,Linux 文件日志筛选操作

發布時間:2024/9/27 linux 23 豆豆
生活随笔 收集整理的這篇文章主要介紹了 linux下日志晒选打包,Linux 文件日志筛选操作 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

統計查看文件以及篩選日志

1、*.log 日志文件中 統計獨立ip的個數:

awk ‘{print $1}‘ test.log | sort | uniq | wc -l

2、#查詢訪問最多的前10個ip

awk ‘{print $1}‘ /access.log | sort | uniq -c | sort -nr | head -10

3、#查看某段時間的

grep "2017:0[3-6]" test.log

4、訪問次數最多的IP

netstat -ntu | tail -n +3 | awk ‘{ print $5}‘ | cut -d : -f 1 | sort | uniq -c| sort -n -r | head -n 5

tail -n +3 :去掉前兩行。

awk ‘{ print $5}‘:取數據的低5域(第5列)

cut -d : -f 1 :取IP部分。

sort:對IP部分進行排序。

uniq -c:打印每一重復行出現的次數。(并去掉重復行)

sort -n -r:按照重復行出現的次序倒序排列。

head -n 5:取排在前5位的IP

5、shell統計一天 access.log 日志每小時每IP訪問次數 :

awk -vFS="[:]" ‘{gsub("-.*","",$1);num[$2" "$1]++}END{for(i in num)print i,num[i]}‘ test.log

6、篩選關鍵字

grep

grep ‘01/Sep/2017:16:06:47‘ logs/access.log

cat/opt/mongodb/log/mongodb.log.2016-12-10T05-36-42 |grep "Dec 10"

sed

sed -n ‘/Dec 10/p‘ /opt/mongod/log/mongod.log

awk

awk ‘/Dec 10/ {print $0}‘ /opt/mongod/log/mongod.log

6、具體時間點 日志;

sed

sed-n ‘/Nov 11 16:24:17/p‘ /var/log/secure

awk

awk‘/Nov 11 16:24:17/ {print $0}‘ /var/log/secure

tail-n 10test.log 查詢日志尾部最后10行的日志;

tail-n +10test.log 查詢10行之后的所有日志;

head-n 10test.log 查詢日志文件中的頭10行日志;

head-n -10test.log 查詢日志文件除了最后10行的其他所有日志;

cat-n test.log |tail -n +92|head -n 20tail-n +92   表示查詢92行之后的日志

head-n 20    則表示在前面的查詢結果里再查前20條記錄

7、查找指定時間端的日志

sed -n ‘/2014-12-17 16:17:20/,/2014-12-17 16:17:36/p‘test.log

grep‘2014-12-17 16:17:20‘ test.log

8、使用 >xxx.txt 將其保存到文件中,到時可以拉下這個文件分析.如:

cat -n test.log |grep "牛逼" >test.log

netstat -ntu | tail -n +3 | awk ‘{ print $5}‘ | cut -d : -f 1 | sort | uniq -c| sort -n -r | head -n 5

tail -n +3 :去掉前兩行。

awk ‘{ print $5}‘:取數據的低5域(第5列)

cut -d : -f 1 :取IP部分。

sort:對IP部分進行排序。

uniq -c:打印每一重復行出現的次數。(并去掉重復行)

sort -n -r:按照重復行出現的次序倒序排列。

head -n 5:取排在前5位的IP

5、shell統計一天 access.log 日志每小時每IP訪問次數 :

awk -vFS="[:]" ‘{gsub("-.*","",$1);num[$2" "$1]++}END{for(i in num)print i,num[i]}‘ logs/access.log

6、grep 篩選關鍵字

grep ‘01/Sep/2017:16:06:47‘ logs/access.log

cat /opt/mongodb/log/mongodb.log.2016-12-10T05-36-42 |grep "Dec 10"

sed

sed -n ‘/Dec 10/p‘ /opt/mongod/log/mongod.log

awk

awk ‘/Dec 10/ {print $0}‘ /opt/mongod/log/mongod.log

6、具體時間點 日志;

sed

sed -n ‘/Nov 11 16:24:17/p‘ /var/log/secure

awk

awk ‘/Nov 11 16:24:17/ {print $0}‘ /var/log/secure

tail -n 10 test.log 查詢日志尾部最后10行的日志;

tail -n +10 test.log 查詢10行之后的所有日志;

head -n 10 test.log 查詢日志文件中的頭10行日志;

head -n -10 test.log 查詢日志文件除了最后10行的其他所有日志;

cat -n test.log |tail -n +92|head -n 20

tail -n +92表示查詢92行之后的日志

head -n 20 則表示在前面的查詢結果里再查前20條記錄

7、查找指定時間端的日志

sed -n ‘/2014-12-17 16:17:20/,/2014-12-17 16:17:36/p‘ test.log

grep ‘2014-12-17 16:17:20‘ test.log

8、使用 >xxx.txt 將其保存到文件中,到時可以拉下這個文件分析.如:

cat -n test.log |grep "地形" >xxx.txt

原文:http://www.cnblogs.com/sharesdk/p/7853739.html

總結

以上是生活随笔為你收集整理的linux下日志晒选打包,Linux 文件日志筛选操作的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。