Shell+Linux命令实现日志分析
linux  /  管理员 发布于 7年前   176
一、列出当天访问次数最多的IP
命令:
复制代码 代码如下:cut -d- -f 1 /usr/local/apache2/logs/access_log |uniq -c | sort -rn | head -20
原理:
复制代码 代码如下:
cut
-d, --delimiter=DELIM
use DELIM instead of TAB for field delimiter
表示用-分割,然后-f 1
-f, --fields=LIST
select only these fields; also print any line that contains no
delimiter character, unless the -s option is specified
表示打印第一部分,就是ip
uniq 是将重复行去掉, -c表示前面前面加上数目,
sort -rn 就是按照数字从大到小排序,
head -20取前面20行
最后打印的结果大概是这样:
复制代码 代码如下: 217 192.114.71.13
116 124.90.132.65
108 192.114.71.13
102 194.19.140.96
101 217.70.34.173
100 219.235.240.36
以下是其他一些分析日志的shell用法:
1、查看当天有多少个IP访问:
复制代码 代码如下:awk '{print $1}' log_file|sort|uniq|wc -l
2、查看某一个页面被访问的次数;
复制代码 代码如下:grep "/index.php" log_file | wc -l
3、查看每一个IP访问了多少个页面:
复制代码 代码如下:awk '{++S[$1]} END {for (a in S) print a,S[a]}' log_file
4、将每个IP访问的页面数进行从小到大排序:
复制代码 代码如下:awk '{++S[$1]} END {for (a in S) print S[a],a}' log_file | sort -n
5、查看某一个IP访问了哪些页面:
复制代码 代码如下:grep ^111.111.111.111 log_file| awk '{print $1,$7}'
6、去掉搜索引擎统计当天的页面:
复制代码 代码如下:awk '{print $12,$1}' log_file | grep ^\"Mozilla | awk '{print $2}' |sort | uniq | wc -l
7、查看2009年6月21日14时这一个小时内有多少IP访问:
复制代码 代码如下:awk '{print $4,$1}' log_file | grep 21/Jun/2009:14 | awk '{print $2}'| sort | uniq | wc -l
122 在
学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..123 在
Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..原梓番博客 在
在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..博主 在
佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..1111 在
佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
Copyright·© 2019 侯体宗版权所有·
粤ICP备20027696号