國平:SEO作弊與反作弊

先講一個作弊方法。以下的一個作弊方法,至今還能行得通的。

代碼如下:

這段代碼,搜索引擎看到的是一個黑色背景下有一些白色的文字,這是不算作弊的。但是用戶看到的就是一片白色,不會看到裡面的文字。原因就是用一張白色的圖片作為瞭背景。在以table佈局的網頁裡,如果同時定義瞭一個table的背景顏色和背景圖片,它是優先顯示圖片顏色的。這樣,用戶看到的是一片白色背景下的白色文字,當然就看不到這些文字瞭。這種作弊方法利用瞭一點:就是搜索引擎至今不能識別一張圖片的顏色。

當然搜索引擎還有很多其他弱點。邁克摩爾曾經說過:確實有辦法愚弄搜索引擎,但是隻有少數人能真正辦到。其實他就是其中的一個,因為他自己做瞭20年的搜索引擎技術研究,在搜索引擎領域有很多專利,能從頭到尾建立一個搜索引擎。

但是他那樣的專傢,是不會用一些作弊的方法來做SEO的,原因就是這樣做太蠢瞭。

這要從搜索引擎反作弊策略說起。一個搜索引擎成功的反作弊策略一定是這樣的:

1,允許算法被探測出來,而且即使算法被公佈,搜索結果的公正性都不會受太大影響。要這麼做的原因就是不希望和作弊的人陷入到一種貓捉老鼠的死循環當中。如果老是以堵漏洞的做法來修正算法,那永遠都沒有盡頭。出於這樣的考慮,搜索引擎會把那些無法被作弊的的因素在排序算法裡放到比較重要的程度。

2,盡可能用一切技術手段自動檢測,當技術手段不能解決問題,就用人工來解決。然後把人工發現的問題又反饋給自動檢測機制,使自動檢測越來越完善。

現在的google基本上就是這樣來做的。在現有的排序規則中,那些無法作弊的和能精確反應內容的因素,都是很重要的排序因素。

當然Google也不排斥頻繁的調整算法,這也有出於給用戶一個最好的搜索體驗考慮的。

至於技術檢測和人工審查,google也一直在做。

google很早就有匿名蜘蛛來檢測一個網站是不是在作弊的。如果去分析網站的服務器LOG日志,就會發現它們。

你會發現,有的爬蟲,通過IP查詢是來自google,但是它沒有自己的聲明(user-agent),這就是google的匿名爬蟲。它會判斷你有沒有對google爬蟲特別對待,做一些隱藏頁面,還會解析Javascript文件和CSS文件等等。有人用CCS文件來隱藏內容,這種事情現在是不用去做的,google都能查出來。

Google也有人工審核機制,從webmaster tool 裡提交的問題,都是有人工跟進審核的。以下就是號稱google內部流傳出來審核規則,可以點此下載。

既然google反作弊那麼優秀,那文章一開始提到的那個作弊方法怎麼解決呢?

那個方法google確實檢測不出來,但是用這個方法的人,到最後還是會被google發現作弊。

google的反作弊是善意原則優先,是假設你這個網站是沒有作弊的,但是用其他所有作弊的特征來檢查。 用瞭我提到的這個方法,在用顏色隱藏內容這一塊是沒事瞭,但是會在堆砌關鍵詞,反向鏈接,以及其他很多方面路出馬腳來。google就是相信,一個在頁面上隱藏內容的人,也一定會去做垃圾鏈接群發等等其他作弊的事情。就像現實生活中一個吸毒的人,當然也是愛打架的,或者愛偷東西的,總有一件事情讓你進局子裡。

而你假設其他什麼都不做,就是用那個方法隱藏一點內容,其實你也不能得到什麼。因為你僅僅是隱藏內容的話也不會有排名的。

google就是這樣捍衛瞭自己排名的公正性。

對這些瞭解得越多,就越發現作弊實在是費力不討好瞭。(作弊源於不瞭解,通過正常途徑提升SEO流量的方法有的是,為什麼放棄那麼多好的方法而選擇差的方法呢?在現在的SEO界,你會發現一個現象,越是SEO剛入門的人越喜歡搞一些作弊的事情,而SEO從業越久的人,就越不會參與這些。)

想做一個優秀SEOer的人,對所有這些因素都要有一定程度的瞭解的。這樣做即可以避開無意中犯下的錯,又可以避免不必要的恐慌。

比如沙盒效應,很多人總覺得很神秘,其實從搜索引擎的角度出發沒什麼好神秘的。你要是站在搜索引擎的角度考慮問題,就覺得這是一個很有必要的措施瞭。你也會知道如何發展自己的外部鏈接。避免google的反作弊手段落到你網站上。

還有,關於重復內容,google一定是善意原則優先的,它甚至會幫你處理掉因為網站大量采用模板帶來的重復問題。

要做到瞭解這些,就是不斷的實踐,學習和實驗。

最近的美劇《Lie to me》非常好看,有一個印象我很深刻,就是他們會定期做一些實驗,來瞭解人類各種復雜微妙的表情後面隱藏著怎樣的心理活動,會定期形成報告。這是一種非常好的研究程序。

面對google,我們就像那些心理學傢面對人類的心理一樣,很多東西是你不瞭解的。你去測試,就能得到獨傢的資料和信息。這也是我博客很多東西的來源。(文/國平)