雅虎的蜘蛛啊,你不要太勤快!

来自Jamesqi
跳转至: 导航搜索

“雅虎的蜘蛛啊,你不要太勤快!”和“为雅虎蜘蛛设置抓取频率限制”在这里有相同的下面内容。

--James Qi 2008年11月11日 (二) 10:36 (CST)

  采取文件缓存等一些措施后,MediaWiki服务器的负载明显降低,但偶然还是会升高,这两天看到老网站区号查询邮编查询所在的服务器连续两个上午负载很高,正常访问困难,估计是因为这两个网站近期做了一些改版,有些蜘蛛来重新爬行吧。

  详细查看了access.log, usragent.log 两个文件,没有发现特别的IP来捣乱,却发现雅虎蜘蛛(Yahoo! Slurp 和 Yahoo! China Slurp)访问量最大,大约是百度蜘蛛(BaiduSpider)的5倍,是谷歌蜘蛛(googlebot)的10倍,而实际上网站来自雅虎的流量简直都在5%以下,要不是看在雅虎搜索还有一定名气的份上,真想象对待搜搜、有道、奇虎等的蜘蛛一样完全屏蔽起来。

  以前知道雅虎蜘蛛有个专门的指令可以放在robots.txt中来限制抓取频率:Crawl-delay,意思是两次抓取之间的间隔时间,开始用的是10,但实际日志中肯定不是10秒才访问一次,而是1秒钟有多次访问。

  后来查询资料,说是因为雅虎美国、雅虎中国有两种蜘蛛,每种蜘蛛又有多组服务器可能会同时出击而不互相协调配合,真是垃圾技术啊,难怪雅虎搜索越来越差。为了达到限制频率,需要乘以40(雅虎共有越40组服务器),也就是Crawl-delay=400,在会实际两次抓取中间隔为10秒。

  上传了robots.txt以后,短期内雅虎蜘蛛还是快速爬行,可能是因为还没有读取更新的robots.txt,只有先在Squid中把Slurp全部拒绝再说,稍后再打开。

标签:雅虎蜘蛛
相关内容:
  1. 2010-03-13 11:36:54 又来一个害人的悟空蜘蛛:WukongSpider
  2. 2009-12-22 11:00:46 用Yahoo! Site Explorer向雅虎搜索引擎提供Sitemap
  3. 2009-09-07 22:09:20 腾讯搜搜独立了,网站解除对Sosospider屏蔽
  4. 2008-11-22 18:36:07 给有道管理员的信(蜘蛛频率问题)
  5. 2008-11-11 10:36:54 为雅虎蜘蛛设置抓取频率限制
  6. 2008-11-10 11:14:55 给搜搜蜘蛛(Sosospider)的信(请勿骚扰)
  7. 2008-10-29 00:07:51 在Squid设置中多管齐下防止蜘蛛频繁抓取
  8. 2008-10-27 22:01:03 常见搜索引擎蜘蛛(爬虫、机器人)IP地址段
  9. 2008-05-16 09:45:33 汶川地震:谷歌、百度、雅虎热门关键词比较

别名:雅虎的蜘蛛啊,你不要太勤快!雅虎的蜘蛛来访太频繁,需要设置抓取频率限制

关于“雅虎的蜘蛛啊,你不要太勤快!”的留言:

目前暂无留言

新增相关留言