苏州域名注册知识
网站策划、网络推广
网站建设、网站制作设计
网站优化、SEO排名优化
SEO培训、SEO教程
整站优化、整站SEO推广
网站推广、网络营销
关键词优化、关键词排名
域名主机、企业邮箱
苏州网站建设业务范围
苏州网站建设知识库大全
· 如何才能避免SEO网站被复制或
· 哪些方法技巧有利于网站SEO快
· 凤巢网络总结常见的移动端SEO
· 搜索引擎SEO优化是否对于女性
· 分析营销型手机网站seo优化具
· 选对SEO外包公司对于企业网站
· 公司网站SEO优化过程中如何确
· 南京网站优化SEO需要注意的一
· 怎么样的SEO文章才能带来精准
· 想成为SEO大牛级别的人物需要
苏州网站建设常见问题
推广知识
让搜索引擎爬虫快速爬行您网站的几大绝招

  我们知道,现代搜索引擎收录网站页面是通过网络爬虫(英文名称有很多:bots,spider,Crawler,collector,walker,Slurp等等)进行页面采集,即由网络爬虫进入网站,将网站页面以及页面下的连接页面进行下载,然后通过内容分析器来分析页面内容。而在这个过程中,robots.txt的作用就在于告诉网络爬虫,那些页面不能采集,那些页面能采集。一般来说,主流搜索引擎的网络爬虫都是遵守robots.txt规范的。具体的robots规范可参见以下网站:www.robotstxt.org和www.w3.org。
 让搜索引擎快速收录网站页面解决办法 robots.txt,是用来声明网站中不希望被搜索引擎收录的内容或用来指定搜索引擎收录内容的规则文件。
  知道以下规则,我们就可以巧妙利用robots.txt。
  之国内常见的搜索引擎爬虫有:
Baiduspider、Googlebot、Slurp、MSNBOT、iaskspider、sogou+spider、Zhuaxia.com+1+Subscribers、Feedsky+crawler
  robots.txt要求保存为小写,存放在网站根目录下,并保证可以通过www.jsfengchao.com/robots.txt进行访问的。
  我们填写robots.txt一般只需要注意两个语法规则就可以了:User-agent和Disallow。User-agent是规定允许采集本站页面的搜索引擎;Disallow规定不允许采集的页面路径。
 
例一、
  User-agent: *
  Disallow:
  上面规则表示允许所有搜索引擎的爬虫收录本站页面,并且允许采集所有页面。本例还有一个简便的方式,就是创建一个命名为robots.txt的空文档,放入网站个目录就好了!
  
例二、
  User-agent: *
  Disallow: /admin/
  上面规则表示允许所有搜索引擎爬虫收录本站页面,但不允许收录/damin/目录下的所有页面。我们知道,admin目录下的页面,往往存放着后台管理页面,为了安全起见,我们不允许搜索引擎把/admin/目录下页面收录。
  
例三、
  User-agent: Baiduspider
  Disallow:
  上面规表示只允许Baidu爬虫收录本站页面,并且允许收录所有页面。
  
例四、User-agent: *
  Disallow: /
  上面规则表示任何搜索引擎爬虫都不得收录本站所有页面。对于一些不希望公开站点的网站来说,的确是比较有用的!

发布时间:2010-11-17 16:47:26 点击率:1834 返回上一页
公司地址: 苏州市高新区浩福路1号维田商务中心3楼
垂询热线: 13771728337
公司邮箱: sales@jsfengchao.com
客服在线: 点击这里给我发消息
2018年 抓住网络营销火爆之年
下一个成功故事的主角就是您
一切为您提高成效
足不出户 营销全球
凤巢网络全体员工用心为您服务
祝您新年快乐
主营业务:苏州网站建设 苏州网站制作 苏州网站优化 苏州网络公司 苏州SEO优化 苏州做网站 苏州网络推广 苏州网站建设公司 苏州网站制作公司 苏州百度推广 苏州网站设计