为WordPress多站点网站添加robots.txt文件方法
一般WordPress搭建的多站点网站都会使用相同的根目录,但是为了SEO优化考虑,需要给不同的站点添加不同的robots协议,那么讲robots.txt文件放置在网站根目录是不行的,今天就分享为WordPress多站点网站添加robots.txt文件方法,需要通过robots_txt钩子生成虚似的robots.txt文件URL(类似于伪静态)实现。
新安装wordpress站点,没有禁止蜘蛛爬行,启用伪静态后,访问地址http://*****/robots.txt,会返回下面的结果:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
这是WordPress默认的robots.txt内容。如果想添加更多的规则,可以在当前使用的主题中添加下面的代码:
如果想添加更多的规则,就在当前使用的主题中添加下面的代码:
function robots_mod( $output, $public ) {
$output .= “Disallow: /feedn”;
$output .= “Disallow: /trackbackn”;
return $output;
}
add_filter( ‘robots_txt’, ‘robots_mod’, 10, 2 );
上面代码返回的结果是:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow:/feed
Disallow: /trackback
如果不想要默认的robots.txt内容,则可以这样写
function robots_mod( $output, $public ) {
$output = “User-agent: *n”;
$output .= “Disallow: /feedn”;
$output .= “Disallow: /trackbackn”;
return $output;
}
add_filter( ‘robots_txt’, ‘robots_mod’, 10, 2 );
2. 分享目的仅供大家学习和交流,请不要用于商业用途!
3. 如果你也有好源码或者教程,可以到用户中心发布投稿,分享有佣金分成!
4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务 请大家谅解!
5. 如有链接无法下载、失效或广告,请联系站长,可领回失去的金币,并额外有奖!
6. 如遇到加密压缩包,默认解压密码为"www.9m8m.com",如遇到无法解压的请联系管理员!
7. 本站部分文章、资源来自互联网,版权归原作者及网站所有,如果侵犯了您的权利,请及时联系我站删除。免责声明
精品源码网 » 为WordPress多站点网站添加robots.txt文件方法
常见问题FAQ
- 免费下载或者VIP会员专享资源能否直接商用?
- 本站所有资源版权均属于原作者所有,这里所提供资源(除商业源码分类)均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
- 源码会提供后续更新服务吗?
- 只要是源码有了新的版本发布,那么我们就会发布出来,凡是vip会员都可享受免费下载更新的权限!
- 所有源码是否100%完整可运营?
- 因为时间、精力、条件和源码的复杂程度等诸多因素的限制,导致我们无法去对每一套源码都去做一个全面且深入的测试,所以我们无法保证站内所发布的源码全部都100%完整可运营,所以关于此问题就无法给大家做出任何承诺。
- 本站源码是否支持退款?
- 本站属于自动发货下载,源码是虚拟产品,易复制与传播,一旦购买是不支持退款的,感谢理解!