端点SEO博客

系统化学习SEO技术,实时关注业界动态

robots文件中到底要不要屏蔽JS和CSS

最近发现百度蜘蛛每日抓取网站的js和css文件非常频繁,甚至能占每日抓取量的五分之一,百度蜘蛛每日抓取5000次,其中单独抓取js和css文件就有一千多次。

遇到这种情况,是否应该使用robots协议屏蔽蜘蛛抓取上述文件??

需要说明,下面为个人见解:
1、robots全部屏蔽掉不太建议,因为随着网页的发展,资源种类越来越多,蜘蛛需要分析;
2、根据之前看到的百度对网页主体内容模板的专利的简单介绍可以得出下面几个观点:
  A、百度能够根据前台页面的链接布局、框架,判断出一个站点的主要页面类型,及各页面适合用户浏览的主体内容;
  B、因此如果js、css等如果对蜘蛛判断站点的主体内容没有什么影响,比如遮罩、跟踪用户行为返回区域内容变化,那么屏蔽完全可以,但是从实际的例子来说可能对站点其他主     体内容页面的抓取频次没有多大帮助,因为主体内容与js、css本来就互不相关的两类东西;
  C、如果js、css等如果对蜘蛛判断站点的主体内容有影响,如包含较多网址、图片地址、有效资源地址、文字资源等建议不屏蔽,蜘蛛爬取js/css文件的同时可以爬取里面的内     容,并且尽量简单处理,不要采用ajax或多重逻辑判断的代码;

经过上述处理后,如果发现有价值的js、css抓取次数还是较多,那么建议使用百度的抓取频次工具,反馈提高下,对一个站点的抓取频次现在可以对百度进行反馈。

除非注明,文章均由©端点SEO博客原创
转载请保留本文链接:http://www.iseoduan.com/zhanneiyouhua/602.html
最后更新: 2016年11月16日 — 18:20
©2015~2017 | 端点SEO博客:揭露SEO本质,提供SEO培训,系统的学习SEO优化 备案号:京ICP备12011610号-3 站点地图|端点SEO博客