为WordPress多站点网站添加robots.txt文件方法

作者 : 管理员 本文共1341个字,预计阅读时间需要4分钟 发布时间: 2022-08-10 共147人阅读

一般WordPress搭建的多站点网站都会使用相同的根目录,但是为了SEO优化考虑,需要给不同的站点添加不同的robots协议,那么讲robots.txt文件放置在网站根目录是不行的,今天就分享为WordPress多站点网站添加robots.txt文件方法,需要通过robots_txt钩子生成虚似的robots.txt文件URL(类似于伪静态)实现。

新安装wordpress站点,没有禁止蜘蛛爬行,启用伪静态后,访问地址http://*****/robots.txt,会返回下面的结果:

User-agent: *

Disallow: /wp-admin/

Allow: /wp-admin/admin-ajax.php

这是WordPress默认的robots.txt内容。如果想添加更多的规则,可以在当前使用的主题中添加下面的代码:

如果想添加更多的规则,就在当前使用的主题中添加下面的代码:

function robots_mod( $output, $public ) {

$output .= “Disallow: /feedn”;

$output .= “Disallow: /trackbackn”;

return $output;

}

add_filter( ‘robots_txt’, ‘robots_mod’, 10, 2 );

上面代码返回的结果是:

User-agent: *

Disallow: /wp-admin/

Allow: /wp-admin/admin-ajax.php

Disallow:/feed

Disallow: /trackback

如果不想要默认的robots.txt内容,则可以这样写

function robots_mod( $output, $public ) {

$output = “User-agent: *n”;

$output .= “Disallow: /feedn”;

$output .= “Disallow: /trackbackn”;

return $output;

}

add_filter( ‘robots_txt’, ‘robots_mod’, 10, 2 );

1. 本站所提供的源码模板(主题/插件)等资源仅供学习交流,若使用商业用途,请购买正版授权,否则产生的一切后果将由下载用户自行承担,有部分资源为网上收集或仿制而来,若模板侵犯了您的合法权益,请来信通知我们(Email: 1847046260@qq.com),我们会及时删除,给您带来的不便,我们深表歉意!
2. 分享目的仅供大家学习和交流,请不要用于商业用途!
3. 如果你也有好源码或者教程,可以到用户中心发布投稿,分享有佣金分成!
4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务 请大家谅解!
5. 如有链接无法下载、失效或广告,请联系站长,可领回失去的金币,并额外有奖!
6. 如遇到加密压缩包,默认解压密码为"www.9m8m.com",如遇到无法解压的请联系管理员!
7. 本站部分文章、资源来自互联网,版权归原作者及网站所有,如果侵犯了您的权利,请及时联系我站删除。免责声明
精品源码网 » 为WordPress多站点网站添加robots.txt文件方法

常见问题FAQ

免费下载或者VIP会员专享资源能否直接商用?
本站所有资源版权均属于原作者所有,这里所提供资源(除商业源码分类)均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
源码会提供后续更新服务吗?
只要是源码有了新的版本发布,那么我们就会发布出来,凡是vip会员都可享受免费下载更新的权限!
所有源码是否100%完整可运营?
因为时间、精力、条件和源码的复杂程度等诸多因素的限制,导致我们无法去对每一套源码都去做一个全面且深入的测试,所以我们无法保证站内所发布的源码全部都100%完整可运营,所以关于此问题就无法给大家做出任何承诺。
本站源码是否支持退款?
本站属于自动发货下载,源码是虚拟产品,易复制与传播,一旦购买是不支持退款的,感谢理解!

发表评论

也想出现在这里? 联系我们
Copyright © 2022 深圳市星速云网络科技有限公司版权所有 Theme. All rights reserved 粤ICP备19063419号-4
开通VIP 享更多特权,建议使用QQ登录