,網站 url 設定必須簡短有意義. 此類設定經常用於 cms 搭建的網站,我們經常看到的有之夢的 cms,當我們在建立一個欄目的時候,預設的是以該欄目的生成時間以及名稱作為欄目和文章的 url 地址,這個地址非常長,並且對於搜尋引擎及其不友好,其他站點也是一個道理,所以在進行內容更新之前我們先要做到欄目和文章路徑的 url 最佳化,要修改的地方在 dedecms 的後臺,系統——系統基本引數.

  欄目管理裡文章命名規則 {typedir}/{Y}/{M}{D}/{aid}.html 改為 {typedir}/{aid}.html 刪除中間的日期或者把中間部分改為欄目的簡拼或者全拼的方式,列表列表命名規則 {typedir}/list_{tid}_{page}.html 改為 {typedir}/list_{page}.html 刪除中間生成的 tid 縮小文章頁的路徑.

  第二,網站的 404 頁面設定.404 頁面主要為一些失效的無法開啟的網站連結準備的,很多網站由於改版或者資料庫的更新導致 url 出現無法開啟的情況發生。 404 頁面的作用是什麼?一旦出現網頁無法開啟,這個時候我們就要透過 404 頁面進行友好的提示多使用者返回到我們網站的頁,這樣引導多使用者繼續訪問其他的頁面,增加了我們網站體驗度和多使用者瀏覽時間,大家可以根據自己喜好選擇頁面佈局方式,但是注意底部的返回頁是必須要保留的.

  第三,網站的 301 永久重定向. 我們知道新上線的站點一般同帶 www 的域名和不帶 www 的域名,但是這兩個域名對多使用者開啟看到的頁沒有什麼區別,但是百度會認為兩個域名,權重會分散,所以作為 SEO 站群我們要做的就行對應 url 進行永久的重定向,方法是把不帶 www 的地址跳轉到帶 WWW 的域名,以防權重分散.

  第四,網站 Robots 協議設定.Robots 協議全稱是 “網路爬蟲排除標準”(Robots Exclusion Protocol),網站透過 Robots 協議告訴搜尋引擎哪些頁面可以抓取,哪些頁面不能抓取. 當一個搜尋蜘蛛訪問一個站點時,它會先檢查該站點根目錄下是否存在 robots.txt,如果存在,搜尋機器人就會按照該檔案中的內容來確定訪問的範圍. 具體的設定方法,筆者在這裡舉例說明:其他更多的知識可以透過百度搜尋瞭解.

  1) 、禁止所有搜尋引擎訪問網站的任何部分

  User-agent:*
  Disallow:/

  2) 、允許所有的 robot 訪問 (或者也可以建一個空檔案 “/robots.txt”file)

  User-agent:*
  Allow:/

  3) 、禁止某個搜尋引擎的訪問

  User-agent:Baiduspider
  allow:/

  第四,網站地圖的設定方法. 常見的網站地圖一般包含 2 種,一種是 html 靜態地圖,一種是 xml 格式的地圖,xml 格式的地圖主要是站在搜尋引擎角度以一種索引的方式搜尋引擎可以理解的形式告知搜尋引擎,以提高網站的收錄. 另外一種是 html 格式的,這種一般是對網站的結構欄目為呈現方法,將網站的頁以及各級重要的欄目頁和列表頁以連結的方式展示出來,方便多使用者檢視網站內容. 這些細節都是為了提升網站對於搜尋引擎的友好度,提升搜尋引擎抓取重點頁面的效率而進行的基礎最佳化.