找回密码
 开放注册

QQ登录

只需一步,快速开始

微信登录

微信扫码,快速开始

搜索
查看: 864|回复: 2

宏观分析百度谷歌辨别原创的五大点

[复制链接]

1744

主题

-198

回帖

3155

牛毛

二级牛人

http://www.gzmtbj.com

积分
3155
发表于 2012-6-5 15:09:42 | 显示全部楼层 |阅读模式 来自 浙江省杭州市
宏观分析百度谷歌辨别原创的五大点
首先我写的这篇文章完全源自本人长期观察总结,如果有何不妥请指正。毕竟我研究SEO也有一段时间,虽然说SEO的最高境界是忘记SEO,但是SEO技术也还是非常有趣的,我研究SEO技术纯粹是个人兴趣,写这篇文章也是给各位站长做一个很好的参考。
  第一,搜索引擎会过滤的,了,呢,啊之类的重复率非常之高的对排名无帮助的无用词语。
  第二,这里要谈为什么有时候转换近义词无效。从这里开始就算是我个人的经验总结了。既然市场上有一堆伪原创工具能够将词语伪原创比如将电脑伪原创为计算机,那么有什么理由不相信强大的搜索引擎不会伪原创?所以肯定的,搜索引擎一定会近义词伪原创,当搜索引擎遇到电脑计算机时,会将他们自动转换这里姑且假设为A,所以很多情况下的近义词伪原创不收录的原因。
  第三,这里要谈为什么有时候不仅近义词转换了并且打乱句子与段落依然无效。当搜索引擎过滤掉无用词,并将各类近义词转化为ABCD后开始提取出这个页面最关键的几个词语ACE(这里举个例子,实际可能提取的关键字不是ACE三个而是1个到几十个都是说不定的)。并且将这些词进行指纹记录。这样也就是说,近义词转换过的并且段落打乱过的文章和原文对于搜索引擎来说是会认为一模一样的。
  第四,这段更深层次解释为什么几篇文章段落重组的文章依然可能会被搜索引擎识别出。首先既然百度能够生成指纹自然也能解码指纹,段落重组的文章不过是重要关键字的增加或者减少,这样比如有两篇文章第一篇重要关键字是ABC,而第二篇是AB,那么搜索引擎就可能利用自己一个内部相似识别的算法,如果相差的百分数在某个值以下就放出文章并且给予权重,如果相差的百分数高于某个值那么就会判断为重复文章从而不放出快照,也不给予权重。这也就是为什么几篇文章段落重组的文章依然可能会被搜索引擎识别出的原因。
  第五,我要解释下为什么有些伪原创文章仍然可以被收录的很好。我上面的推理只是对于百度识别伪原创算法的大致框架,实际上谷歌百度对于识别伪原创的工作要更加庞大并且复杂的多,谷歌一年就会改变两百次算法足以看出算法的复杂性。为什么某些伪原创的文章依然可以被收录的很好。只有两个原因:
  1.网站自身权重高,哪怕不为原创照搬别人的文章还是百分之百会被收录给予权重。
2.搜索引擎绝对不可能完美到过滤所有伪原创,这是不可能的,就好像人工智能的图灵永远无法完美到拥有人类的情绪一样。本文由张家港益德机械油加热器www.zjgyide.com冷水机www.zjgyide.com整理转载以链接形式注明!

10

主题

95

回帖

85

牛毛

初生牛犊

积分
85
发表于 2012-6-9 23:40:07 | 显示全部楼层 来自 安徽省六安市
谢谢分享。支持下。

17

主题

124

回帖

66

牛毛

初生牛犊

积分
66
发表于 2012-6-11 16:31:24 | 显示全部楼层 来自 广西南宁市
不错,,,抢一下板凳坐坐
您需要登录后才可以回帖 登录 | 开放注册

本版积分规则

帮助|Archiver|小黑屋|通信管理局专项备案号:[2008]238号|NB5社区 ( 皖ICP备08004151号;皖公网安备34010402700514号 )

GMT+8, 2025-4-25 05:40 , Processed in 0.190170 second(s), 43 queries .

Powered by Discuz! X3.5

快速回复 返回顶部 返回列表