实现WordPress博客蜘蛛爬行记录统计教程
使用WordPress蜘蛛记录来生成这个功能。在对网站优化的研究中,清楚地了解蜘蛛的爬行规律也非常重要,这样才能了解蜘蛛的爬行规律。按照这个规则,我们会重新写文章,这符合蜘蛛的胃口,非常有利于优化。今天分享一下实现WordPress博客蜘蛛爬行记录统计教程。
将下方代码放入function.php文件
function get_naps_bot(){
$useragent = strtolower($_SERVER[‘HTTP_USER_AGENT’]);
if (strpos($useragent, ‘googlebot’) !== false){
return ‘Googlebot’;
}
if (strpos($useragent, ‘msnbot’) !== false){
return ‘MSNbot’;
}
if (strpos($useragent, ‘slurp’) !== false){
return ‘Yahoobot’;
}
if (strpos($useragent, ‘baiduspider’) !== false){
return ‘Baiduspider’;
}
if (strpos($useragent, ‘sohu-search’) !== false){
return ‘Sohubot’;
}
if (strpos($useragent, ‘lycos’) !== false){
return ‘Lycos’;
}
if (strpos($useragent, ‘robozilla’) !== false){
return ‘Robozilla’;
}
return false;
}
function nowtime(){
date_default_timezone_set(‘Asia/Shanghai’);
$date=date(“Y-m-d.G:i:s”);
return $date;
}
$searchbot = get_naps_bot();
if ($searchbot) {
$tlc_thispage = addslashes($_SERVER[‘HTTP_USER_AGENT’]);
$url=$_SERVER[‘HTTP_REFERER’];
$file=”robotslogs.txt”;
$time=nowtime();
$data=fopen($file,”a”);
$PR=”$_SERVER[REQUEST_URI]”;
fwrite($data,”Time:$time robot:$searchbot URL:$tlc_thispagen page:$PRrn”);
fclose($data);
}
然后在网站根目录创建 robotslogs.txt 并且给他777权限,查看统计的方式就是这样 https://域名/robotslogs.txt
2. 分享目的仅供大家学习和交流,请不要用于商业用途!
3. 如果你也有好源码或者教程,可以到用户中心发布投稿,分享有佣金分成!
4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务 请大家谅解!
5. 如有链接无法下载、失效或广告,请联系站长,可领回失去的金币,并额外有奖!
6. 如遇到加密压缩包,默认解压密码为"www.9m8m.com",如遇到无法解压的请联系管理员!
7. 本站部分文章、资源来自互联网,版权归原作者及网站所有,如果侵犯了您的权利,请及时联系我站删除。免责声明
精品源码网 » 实现WordPress博客蜘蛛爬行记录统计教程
常见问题FAQ
- 免费下载或者VIP会员专享资源能否直接商用?
- 本站所有资源版权均属于原作者所有,这里所提供资源(除商业源码分类)均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
- 源码会提供后续更新服务吗?
- 只要是源码有了新的版本发布,那么我们就会发布出来,凡是vip会员都可享受免费下载更新的权限!
- 所有源码是否100%完整可运营?
- 因为时间、精力、条件和源码的复杂程度等诸多因素的限制,导致我们无法去对每一套源码都去做一个全面且深入的测试,所以我们无法保证站内所发布的源码全部都100%完整可运营,所以关于此问题就无法给大家做出任何承诺。
- 本站源码是否支持退款?
- 本站属于自动发货下载,源码是虚拟产品,易复制与传播,一旦购买是不支持退款的,感谢理解!