在 SEO 站群最佳化中,我們為了留住多使用者,或者是更大的獲取到多使用者,會對多使用者進行一些 “友好的要求”,殊不知,這些 “友好的操作” 往往會變成困住蜘蛛的陷阱,導致網站對於搜尋引擎不友好;那麼,有哪些常見的蜘蛛陷阱呢,讓我們一起來了解一下。
1. 除 301 跳轉外,搜尋引擎對其它的跳轉方式都比較敏感,建議慎用,例如:JavaScript 跳轉、 Flash 跳轉、 Meta Refresh 跳轉等。
2. 各種框架結構
作為一名程式設計師對框架結構(Frame)在熟悉不過,但框架結構也會對蜘蛛抓取造成致命的傷害。因框架結構對網站頁面的維護更新是十分便捷的,所以在之前被廣泛應用於網頁程式設計,不過現在很少有程式設計師使用框架結構了,比較重要的原因之一就是框架結構不利於搜尋引擎抓取。
如果您在網站設計中使用了框架結構,建議可以取消了。現在的網站已經很少使用框架結構了,因為框架結構已經越來越不利於搜尋引擎抓取了。對於搜尋引擎來說訪問一個使用框架結構的網址所抓取的 html 只包含呼叫其他 html 檔案程式碼,並沒有包含其他文字資訊,搜尋引擎也就無法判斷這個網址內容是什麼,也就無法鑑定網站優質程度,即使搜尋引擎跟蹤呼叫其他 html 檔案,但是這些檔案卻是不完整的頁面,所以如果您還在使用框架結構,建議取消之,和 flash 一樣,不要浪費時間研究怎麼讓搜尋引擎收錄框架結構了。
3.Javascript 和 flash 一樣,也可以給多使用者帶來視覺上的衝擊,有的網站喜歡使用 javascript 指令碼生成導航系統,其實這個也是蜘蛛陷阱之一。雖然搜尋引擎都可以嘗試解析 js 指令碼,不過這不能代表搜尋引擎就可以解析得了 js 指令碼。我們應該使得搜尋引擎在訪問我們的網站儘量工作量得到小化,不要增加搜尋引擎的工作量,要讓搜尋引擎的工作儘量簡單,在筆者對其他網站分析,搜尋引擎有的是可以在技術上獲得 javascript 指令碼中包含的連結,也可以執行指令碼跟蹤連結,但是,對於一些權重較低的網站來說,搜尋引擎就覺得沒有必要去執行指令碼的。
4.Session ID
如果我們的網站使用 Session ID 跟蹤多使用者訪問,這樣就會出現一種現象,搜尋引擎每一次訪問我們的頁面時出現一個不一樣的 Session ID,即使訪問的是同一個頁面,它也會出現不一樣的 ID,但是內容卻是一樣的,就形成了大量的重複性內容,這也就形成了一個蜘蛛陷阱,也不利於網站的最佳化。那麼我們通常建議大家使用 cookies 而不要生成 Session ID 。
5. 登入檢視
有的網站內容要註冊後成為網站的會員才可以進行瀏覽的,這樣的網站大部分以論壇為準,這個時候搜尋引擎是沒有辦法看到的,蜘蛛不能填寫多使用者名稱稱,密碼,也不會像多使用者那樣自己去註冊的,所以為了保證網站收錄,站群站長要考慮好網頁內容是否真需要多使用者註冊才可以瀏覽,要權衡下利弊。在多使用者註冊登入網站的時候,有時候會記住網站多使用者登入資訊,跟蹤多使用者訪問路徑等,強制多使用者使用 cookies,多使用者瀏覽器如果沒有啟用 cookies,頁面就會顯示不正常,搜尋引擎蜘蛛就相當於一個禁用了 cookies 的瀏覽器,強制使用 cookies 只會造成搜尋引擎無法正常訪問。
以上就是常見的一些蜘蛛的陷阱,如果站內有的話,最好儘快更改。希望可以給大家帶來幫助。