在自己网站上使用SEO作弊手法,诸如隐藏文字,隐藏链接,关键词堆积,隐藏页面,JS转向等,是比较传统的作弊方式,也更加危险。因为证据确凿,被抓住没什么好狡辩的,证据全在自己网站上摆着呢。
而靠垃圾链接提高排名,就有点说不清道不明的感觉。在博客或论坛群发,就算被检测到,搜索引擎在处理时也会比较谨慎,因为很难断定群发是谁干的。虽然大部分情况下是站长自己干的,但鉴于现在很多人为了排名能变成黑客,也不排除有些人为了陷害竞争对手,给竞争对手群发一下。
所以怎样鉴别和处理垃圾链接是个头疼的问题。搜索引擎头痛,老老实实做站的站长也头痛。
前两天Google提交的一份专利刚刚被批准,标题是:在互相链接的数据中检测链接垃圾之方法,就是研究怎样检测和处理垃圾链接。专利中讨论了很多鉴别链接工厂的数学公式,我完全看不懂,懂编程的可以研究一下。我承认大学时学的高数、线代等一点也不记得了。
这份专利特意提到了两类链接工厂。一种是做一大堆网站,目的就是共同连向一个主网站,使主网站排名提高。这种链接工厂的特征是链接向主网站的这些页面,往往权重(比如Google PR)都很低。而正常的,真正重要的网页通常都会有至少一些比较重要的链接。
另外一种链接工厂是,一堆网站互相之间交叉链接起来。这种链接工厂的特征是,这群网站在链接模式上基本上形成一个孤岛,很少与圈子之外的网站有正常链接关系。
专利中提到被判断是链接工厂或有链接工厂嫌疑的,可能会采取以下措施:
- 这些页面的链接在计算权重时,完全不被考虑
- 页面上的链接权重被降低
- 页面上的链接权重被惩罚
- 这些页面本身重要性被降低
- 这些页面本身重要性被降低,同时发出的链接重要性也被降低
这些惩罚措施都是可以预见的,所描述的两种典型链接工厂也不少见。不知道专利中所描述的数学公式,在判断这些链接工厂时的准确率有多高?