做网站 SEO优化的朋友会特别关注蜘蛛爬行的次数、频率等,而做好网站优化的第一步就是首先让蜘蛛爬虫经常来你的网站进行光顾,如果蜘蛛爬行出现异常怎么办?下面将结合 Linux 系统中的几个 Linux 命令,如 cat 命令 \grep 命令 \awk 命令等可以让你清楚的知道蜘蛛的爬行情况。
下面我们针对 nginx 服务器进行分析,日志文件所在目录:/usr/local/nginx/logs/access.log
,access.log
这个文件记录的应该是最近一天的日志情况,首先请看看日志大小,如果很大 (超过 50MB) 建议别用这些命令分析,因为这些命令很消耗 CPU,或者更新下来放到分析机上执行,以免影响网站的速度。
Shell命令
1、百度蜘蛛爬行的次数
cat access.log | grep Baiduspider | wc
2、百度蜘蛛的详细记录 (Ctrl C 可以终止)
cat access.log | grep Baiduspider
也可以用下面的命令:
cat access.log | grep Baiduspider | tail -n 10
cat access.log | grep Baiduspider | head -n 10
只看最后 10 条或最前 10 条,这用就能知道这个日志文件的开始记录的时间和日期。
3、百度蜘蛛抓取首页的详细记录
cat access.log | grep Baiduspider | grep "GET / HTTP"
百度蜘蛛好像对首页非常热爱每个钟头都来光顾,而谷歌和雅虎蜘蛛更喜欢内页。
4、百度蜘蛛派性记录时间点分布
cat access.log | grep "Baiduspider" | awk '{print $4}'
5、百度蜘蛛爬行页面按次数降序列表
cat access.log | grep "Baiduspider" | awk '{print $7}' | sort | uniq -c | sort -r
文中的 Baiduspider
改成其它蜘蛛名称,例如改成 Googlebot
就可以查看谷歌的数据,国内主要以百度蜘蛛的爬行日志为主。
关于通过Nginx日志分析百度蜘蛛的爬行抓取情况的相关内容;如有侵权,请联系老文删除。