Google在處理內容原創性問題?

Google最近有很大的變化,有一個變化特別值得探討,加大瞭googlebot的抓取能力,加快瞭對新頁面的收錄。個人覺得這個是可喜的變化,很有可能正在處理的是近期一直在海內外討論最多的內容原創性問題。

內容原創性問題,這個在世界都看來都比較頭疼,特別是在版權意識還不夠深入的中國,造就瞭大量的采集站和復制站點,衍生的含有大型站點復制內容,確比原創排名更好,收錄更為及時。

不考慮其他可能的如法律等因素,僅從技術上考慮,要解決這個問題也不是那麼容易,畢竟在轉載的同時無法保證全部的轉載都留有backlink,而google的最近收錄加快是不是代表從基本的收錄就在解決這個問題:加快新站或者說保證所有張收錄速度都是一樣的,那麼以收錄時間來判斷是哪兒的原創問題。

這樣的做法就是說,誰先發出,即刻給排名,後面收錄的不管你是權重多高的站點,都在該原創之下。這樣的話,就可以極力打擊采集站點,當然,對於轉載站點來說,效果也是一樣。 當然,任何東西沒有十全十美,算法隻是一種補充而已,中間還是可能出現轉載站或者采集站偶爾高過現在的站。但如果google發現全部文章他的數據庫裡都有原始的記錄,說簡單點,就是說存在相同的記錄,那麼就減緩這個站的收錄。一個小小的變化就解決瞭比較大的問題。我覺得google算法的動機上還是考慮瞭大部分站長的利益。

在中國特色的環境下,這種算法的出現無疑是一種最穩妥的解決方案。Google進入本土化運營以後,在這方面的一直在努力,不知道下次的算法更新是怎麼樣的驚喜?

原文:/2007/12/12/google-content-oiginality/