1 3 7 - 1 4 4 1 - 9 7 9 7
首页 > 新闻中心 > 新闻中心详细内容

SEO网站优化robots.txt使用中罕见的误区

来源:品牌网站改版 | 作者:品牌网站改版 | 时间:2022-04-15 | 浏览:444
字体大小:


网站制作公司尚品中国(www.sino-web.net):误区1.Allow包括的范畴逾越Disallow,并且职位在Disallow后面。



  比如有很多人多么写:



  User-agent: *



  Allow: /



  Disallow: /mulu/



  想让全部蜘蛛抓取本站除/mulu/下面的url之外的全部页面,阻止抓取/mulu/下面的全部url。



  SEO网站优化搜索引擎蜘蛛履行的轨则是从上到下,多么会组成第二句敕令生效。也就是说阻止抓取/mulu/目次这条轨则是有用的。准确的是Disallow该当在Allow之上,多么才会生效。



  误区2.Disallow敕令和Allow敕令以后没有以斜杠”/”开首。



  这个也很轻易被疏忽,比如有人多么写Disallow: 123.html ,这类是没有用果的。斜杠”/”表现的是文件对根目次的职位,假定不带的话,自然没法剖断url是哪个,品牌网站改版,以是是毛病的。



  准确的该当是Disallow: /123.html,多么才略屏障/123.html这个文件,这条轨则才略生效。



  误区3.屏障的目次后没有带斜杠”/”。



  也就是比如想屏障抓取/mulu/这个目次,有些人多么写Disallow: /mulu。那末多么是否是准确呢?



  首先多么写(Disallow: /mulu)切当可以或许屏障/mulu/下面的全部url,不过同时也屏障了近似/mulu123.html这类开首为/mulu的全部页面,效果等同于Disallow: /mulu*。



  准确的做法是,假定只想屏障目次,那末必需在末端带上斜杠”/”。

本文宣告于北京网站制作公司尚品中国http://www.sino-web.net/

免责声明:本文内容由互联网用户自发贡献自行上传,本网站也不承担相关的法律责任。如果您发现本文章中有涉嫌抄袭的内容,请发送邮件至:sales@sznetsoft.com或者至电给本网站进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权的内容。
相关信息
  • QQ好友
  • QQ空间
  • 腾讯微博
  • 新浪微博
  • 人人网
  • 豆瓣网
  • Facebook
  • Twitter
  • linkedin
  • 谷歌Buzz


线

网软通在线


在线客服: 点击这里给我发消息                        

1231.jpg

留言内容