找回密码
 开放注册

QQ登录

只需一步,快速开始

微信登录

微信扫码,快速开始

搜索
查看: 690|回复: 0

该怎么做避免网页重复收集

[复制链接]

172

主题

-9

回帖

1322

牛毛

二级牛人

积分
1322
发表于 2014-11-19 11:18:53 | 显示全部楼层 |阅读模式 来自 湖北省武汉市
  避免网页重复收集,什么是SEO呢?我们该怎么做呢?才能更好的让我们做的页面优化会更好呢?SEO就是我们搜索引擎优化 ,那么我们怎么做才能不这个搜索引擎不在重复的收集呢?如果一直这样从夫收集会有什么后果呢?下面有武汉网站建设www.weekseo.com来跟我们分享下吧,
  重复收集,从表面意思可以理解为第一次己经收集过之后,又进行了第二次的收集。效率不但没有提高反而增加了带宽的额外开销。对于搜索引擎而言重复做事情相当地消耗资源,也就做不到时效性地更新,而且有可能降低秒级的输出服务。
  造成重复收集的原因在于蜘蛛并没有记录访问过的页面的url.另一方面还有可能在于一个页面有多个域名指向所导致。
  因此搜索引擎在这方而增加了一个额外的技术,分别定义两个不同类型的表,即“己访问表”和“未访问表”,依称这个技术就很简单地解决了重复收集的难题。
  蜘蛛抓取到一个链接之后,从这两个表中判断这个链接是否已经被访问过,如果没有访问过,抓取回来添加到未访问表中去。
  蜘蛛从开始爬行到网贞D、网页A.网页C或者从网页F顺着链接爬行到网页G.网页D、网页A,蜘蛛都会调用两边中的数据.以此来判断爬取网页的重复度。
  就好比我们家做的武汉劳保用品www.hbza.cn、聪明屋www.aicmw.com等网页,都说过这个是要多注意的哦,所以又的时候我们优化的页面是要多注意重复收集的哦。

您需要登录后才可以回帖 登录 | 开放注册

本版积分规则

帮助|Archiver|小黑屋|通信管理局专项备案号:[2008]238号|NB5社区 ( 皖ICP备08004151号;皖公网安备34010402700514号 )

GMT+8, 2025-1-18 12:52 , Processed in 0.126775 second(s), 26 queries , Yac On.

Powered by Discuz! X3.5

快速回复 返回顶部 返回列表