首页 > 新闻 > 知识赋能

SEO网站优化robots.txt使用中常见的误区

2012-04-28 5805
分享至:
网站制作公司尚品中国(www.sino-web.net):误区1.Allow包含的范围超过Disallow,并且位置在Disallow前面。

  比如有很多人这样写:

  User-agent: *

  Allow: /

  Disallow: /mulu/

  想让所有蜘蛛抓取本站除/mulu/下面的url之外的所有页面,禁止抓取/mulu/下面的所有url。

  SEO网站优化搜索引擎蜘蛛执行的规则是从上到下,这样会造成第二句命令失效。也就是说禁止抓取/mulu/目录这条规则是无效的。正确的是Disallow应该在Allow之上,这样才会生效。

  误区2.Disallow命令和Allow命令之后没有以斜杠”/”开头。

  这个也很容易被忽视,比如有人这样写Disallow: 123.html ,这种是没有效果的。斜杠”/”表示的是文件对于根目录的位置,如果不带的话,自然无法判断url是哪个,所以是错误的。

  正确的应该是Disallow: /123.html,这样才能屏蔽/123.html这个文件,这条规则才能生效。

  误区3.屏蔽的目录后没有带斜杠”/”。

  也就是比如想屏蔽抓取/mulu/这个目录,有些人这样写Disallow: /mulu。那么这样是否正确呢?

  首先这样写(Disallow: /mulu)确实可以屏蔽/mulu/下面的所有url,不过同时也屏蔽了类似/mulu123.html这种开头为/mulu的所有页面,效果等同于Disallow: /mulu*。

  正确的做法是,如果只想屏蔽目录,那么必须在结尾带上斜杠”/”。
本文发布于北京网站制作公司尚品中国http://www.sino-web.net/
来源声明:

本文章系尚品中国编辑原创或采编整理,如需转载请注明来自尚品中国。以上内容部分(包含图片、文字)来源于网络,如有侵权,请及时与本站联系(010-60259772)。

立即预约专属顾问 开启数字化转型之旅!

10年+资深项目经理1V1服务 | 行业定制化方案 | 精准报价体系
获取策划方案
立即预约专属顾问 开启数字化转型之旅!

咨询我们,获得专业的服务和报价

联系我们,免费获取项目方案及报价,或只是聊一聊您的项目? 在收到您的需求留言后我们将由专业人员于24小时内与您取得联系,请您保持电话畅通!

  • 科研院所解决方案
  • 外贸出海解决方案
  • 协会学会解决方案
  • 集团上市公司解决方案
  • 生物医药解决方案
  • 制造业解决方案
  • 高校教育解决方案
  • 信创网站改造解决方案
更多服务咨询,请联系尚品

010-60259772

您的姓名 *
您的电话 *
您的邮箱
公司名称 *