或许从头就错了浅析谷歌的反垃圾网站算法

2014-03-22 13:57爱范儿
电脑与电信 2014年7期
关键词:企鹅黑客网页

Google一直希望通过优化反垃圾网站算法来完善搜索引擎,让质量低、含有垃圾内容的网页排名降低,使高质量的内容得到应有的好的排名。虽然一切看起来很美很正义,但是在实际运行中它现在似乎也存在着一些问题。

企鹅是Google诸多反垃圾算法中的一种,Google通过它惩罚那些通过过分SEO手段提高排名的网站,同时也降低那些充斥广告网站的排名。起初它的确起了一定优化搜索的作用,可是当它遇到“blackhatwebspam”,也就是一些黑客直接侵入优秀原创的网站,将其链接到自己的网页,借用这些网站的良好声誉,让自己的搜索排名产生垃圾网站时,它会同时降低那些原创网站的搜索排名。

这本来也不是一件大事,因为它反而迫使那些优质网站更加注重自身网站管理,摆脱网站上无关链接,但问题出在Google对于企鹅长达近十个月的不更新,让那些已经做出修改的网页仍遭受排名较后的调整,虽然其中有些网站已经通过大量的人力物力爬回了排名前端,但是在整件事中它们并没有做错什么就受到无辜的波及。

针对Google的反垃圾算法,Buehler也宣称自己是受害者之一。在同类搜索中,排名较后的网站想要超越排名较前的网站时,只需通过“blackhat-SEO”技术攻击对方网页就能迅速获得较前的排名。但经过调查后,Google认为并没有证据证明这是一个十分严重的问题。

我们抽丝剥茧仔细研究一下会发现Google的反垃圾算法之所以会遇到种种问题最本质的在于Google看待问题的方式,它陷入了一种晕轮效应,这种强烈知觉的品质或特点,就象月亮形式的光环一样,向周围弥漫、扩散,从而掩盖了其它品质或特点。在Google设计算法中它所期望解决的问题是使低质量网站排名靠后,这样一来它就需要面临如上文所说的种种问题,但是它真正需要解决的是如何让高质量网站的排名靠前。

这两点最大的区别在于对象,就某种程度而言它们并没有本质区别,在处理结果上它们是一样的,但是在处理问题过程中这却是十分重要的事,Google千方百计地希望找出垃圾网站的特征从而做出惩罚,但这一个没有尽头的事情,因为无论是限制关键词数量,还是倡导运用白帽手,它们都无法阻止黑客寻找新的方法破解,而Google总需要不停地做出应对,但是如果Google将算法的重心放在根据基于时间顺序算法,通过时间轴找出原创内容最早出处通过,进行搜索优化,或许这样处理将它变成一件比较轻松的事。

猜你喜欢
企鹅黑客网页
欢乐英雄
多少个屁能把布克崩起来?
基于HTML5与CSS3的网页设计技术研究
网络黑客比核武器更可怕
小企鹅的成长
基于CSS的网页导航栏的设计
基于HTML5静态网页设计
基于URL和网页类型的网页信息采集研究
小企鹅
They Loved It!企鹅的喜好