|
1、robots.txt文件出错
当网站的robots.txt文件出现错误,蜘蛛程序无法正常的访问网页,网站被K的可能性极大,谷歌放映最为强烈,时间大致在24小时之内,百度相对来讲就迟缓的多了,一般在一个星期内。
2、关键词高度重复
这里的重复和采集不一样,这里是指站内的网页之间出现高度重复,一般表现为收录减少、网站降权等现象,如果有效解决网页重复现象,而且也可以参考谷歌官方或者行业优秀站点的页面布局方式。 这里的重复和堆砌是一个概念,当蜘蛛程序将爬行成功的网页带回服务器后,搜索引擎首先判断网页的质量。这里可能会先降权,随着网页的逐渐增多,触发搜索引擎引擎的相关机制后就会直接K掉,恢复的工程和过程都相对较大。
3、页面刷新
利用自动刷新代码“refresh”对网页进行刷新会直接跳转,这属于作弊手法,结果不言而喻。
4、顶部JS代码太多
JS 代码一直是各大搜索引擎明确提出的问题,一般最开始出现的网页收录问题(急剧减少),网页源代码中<head></head>部 分也尽量减少JS出现次数,如有必要,可以将JS代码进行合并,<body></body>是网页内容的主要部分,顶部JS代码 出现的越少越好,尽量将重要内容放置在前面。网页JS一般会造成网站降权,被K的没这么发现过。
5、隐藏链接或者文字
采用CSS或其他方式对网页文字进行隐藏,这属于典型的作弊行为,目前随着作弊手法的发展,这种方式一般很少,比较常见的就是网页被挂马。
6、内容采集
对于一个新的网站,刚刚开始就直接采集,给搜索引擎的影响非常那个不好,常见的是过程收录问题、降权、被K。
7、频繁改版
对于一个网站,搜索引擎判断、适应乃至提高起权重都会有一个过程,在这个过程中频繁的对网站进行变化,结果都是不理想的,最严重的又是直接换网站程序或更换网站主题,一般表现为搜索引擎停止抓取、网页快照暂停、收录问题,至于改版后的权重,这比培养一个新的网站难度还大。网站改版如果超过60%以上,那么搜索引擎会可疑,对于是否对网站降权要看搜索引擎心情了,如果网站改版超过了60%,基本上和原来的主题失去了相关性,建议网站改版尽量每次改一部分,改了之后,马上写原创文章,同时加点外链接,这样就不会被搜索引擎降权了。网站被降权原因和解决办法网站总结,如果你的网站出现降权情况,请你从上面原因中一条条去找,并且马上修正,如果再不能解决说明搜索引擎已经严重降权了,这需要耐心等待,只要你有一个平淡的心,迟早都会好起来的。
8、友情链接的连带效应
当网站友情链接出现问题,你作为投票支持方,也会收到不同程度的惩罚,至于什么程度,这要看对方出现问题的具体原因了。
9、大量的广告联盟
很对朋友做网站完全忽视用户体验,这里不包括垃圾站,因为既然打算做垃圾站,就应该早有心理准备了,关于广告联盟尽量选用有信誉的联盟(可靠),个人建议选 择谷歌,既然别人在做搜索引擎,一些因素自然会比我们预先考虑到,而且在选择代码投放在时候建议看下投放建议,以免造成不必要的失误。 联盟数量过多会在一定程度上对网站权重造成影响。针对自己网站的风格优化广告代码,这样可以减少广告代码展示给网站用户体验带来的影响。
10、优化过度
这 是一个非常典型的问题,尤其的刚刚学习SEO的新手,很容易造成网站优化过度。无论是外部链接还是内部链接,过度是一个逐渐变化的过程,可能你目前的优化 方式比较优秀,但是当数量增加到一定程度的时候,降权或者被K就是一瞬间的事情,来不及反应,我们只有找到出现问题的原因并及时解决,问题将迎刃而解。
文章由 重庆网站建设公司 雪毅网络 http://www.xuewl.cn 整理
|
|