如何有效的屏蔽百度蜘蛛

很多时候,我们都不会去把百度蜘蛛去屏蔽掉,但是也有需要去屏蔽一些不必要的抓取,比如一些大型的网站门户网,有登录页面或者是注册页面,还有一些不想让百度蜘蛛抓取文件都可以利用robots协议来完成,那么重庆SEO鹏鹏就讲解哈屏蔽百度蜘蛛的具体方法。

一、robots协议

robots协议相信大家都不陌生,首先既然要用到robots协议,那么我们就要先创建一个记事本,把记事本重命名为robots,然后我们写下robots协议具体如下:

User-agent: BadBot

Disallow: /

然后保存后通过FTP工具上传到网站根目录即可。

二、robots Meta标签

robots Meta标签也可以屏蔽百度蜘蛛抓取,这种方法与robots类似,但是还是部分搜索引擎不支持,robots Meta用来对某几个页面单独设置时使用。其代码是写在“<head></head>”之间,如下所示:

<head>

<meta name=”robots” content=”index,follow” />

</head>

三、.htaccess屏蔽

如果说使用robots协议无法全部屏蔽你的网站,那么你可以在你的网站根目录下找到.htaccess屏蔽代码如下:

方法1:

RewriteEngine on

RewriteCond %{HTTP_USER_AGENT} ^Baiduspider [NC]

RewriteRule .* – [F]

方法2:

SetEnvIfNoCase User-Agent “^Baiduspider” bad_bot

<Limit GET POST>

Order Allow,Deny

Allow from all

Deny from env=bad_bot

</Limit>

总结:百度蜘蛛屏蔽方法有许多,以上方法可参考,重庆SEO鹏鹏觉得还是以robots协议较好,所以其他方法及时可以用,但是也不建议去做,因为一步小心搞错了,就会导致麻烦不断!

本文来源:http://www.pengpengseo.com/

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 去过MUJI的朋友都能感受到扑面而来的一股日系简洁风,性冷淡的颜色,条理清晰的收纳!实际上,日本似乎在整理,收纳,...
    阳小T阅读 3,777评论 0 2
  • 人生真的很怪,时绝望,时而又充满希望,不停的在希望和绝望之间徘徊着,痛并快乐着前行。 我一直认为自己从此与梦想无缘...
    夜光姑娘阅读 1,333评论 0 2
  • 01 打牌 这可以追忆到小时候,在寒冷的冬天里,我们没有手机,没有电脑,那会一个村里也没几家有电视,...
    道理都懂阅读 3,118评论 0 0

友情链接更多精彩内容