,网站 url 设定必须简短有意义. 此类设定经常用于 cms 搭建的网站,我们经常看到的有之梦的 cms,当我们在建立一个栏目的时候,预设的是以该栏目的生成时间以及名称作为栏目和文章的 url 地址,这个地址非常长,并且对于搜索引擎及其不友好,其他站点也是一个道理,所以在进行内容更新之前我们先要做到栏目和文章路径的 url 优化,要修改的地方在 dedecms 的后台,系统——系统基本引数.

  栏目管理里文章命名规则 {typedir}/{Y}/{M}{D}/{aid}.html 改为 {typedir}/{aid}.html 删除中间的日期或者把中间部分改为栏目的简拼或者全拼的方式,列表列表命名规则 {typedir}/list_{tid}_{page}.html 改为 {typedir}/list_{page}.html 删除中间生成的 tid 缩小文章页的路径.

  第二,网站的 404 页面设定.404 页面主要为一些失效的无法开启的网站连结准备的,很多网站由于改版或者资料库的更新导致 url 出现无法开启的情况发生。 404 页面的作用是什么?一旦出现网页无法开启,这个时候我们就要通过 404 页面进行友好的提示多用户返回到我们网站的页,这样引导多用户继续访问其他的页面,增加了我们网站体验度和多用户浏览时间,大家可以根据自己喜好选择页面布局方式,但是注意底部的返回页是必须要保留的.

  第三,网站的 301 永久重定向. 我们知道新上线的站点一般同带 www 的域名和不带 www 的域名,但是这两个域名对多用户开启看到的页没有什么区别,但是百度会认为两个域名,权重会分散,所以作为 SEO 站群我们要做的就行对应 url 进行永久的重定向,方法是把不带 www 的地址跳转到带 WWW 的域名,以防权重分散.

  第四,网站 Robots 协议设定.Robots 协议全称是 “网络爬虫排除标准”(Robots Exclusion Protocol),网站通过 Robots 协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取. 当一个搜索蜘蛛访问一个站点时,它会先检查该站点根目录下是否存在 robots.txt,如果存在,搜索机器人就会按照该档案中的内容来确定访问的范围. 具体的设定方法,笔者在这里举例说明:其他更多的知识可以通过百度搜索了解.

  1) 、禁止所有搜索引擎访问网站的任何部分

  User-agent:*
  Disallow:/

  2) 、允许所有的 robot 访问 (或者也可以建一个空档案 “/robots.txt”file)

  User-agent:*
  Allow:/

  3) 、禁止某个搜索引擎的访问

  User-agent:Baiduspider
  allow:/

  第四,网站地图的设定方法. 常见的网站地图一般包含 2 种,一种是 html 静态地图,一种是 xml 格式的地图,xml 格式的地图主要是站在搜索引擎角度以一种索引的方式搜索引擎可以理解的形式告知搜索引擎,以提高网站的收录. 另外一种是 html 格式的,这种一般是对网站的结构栏目为呈现方法,将网站的页以及各级重要的栏目页和列表页以连结的方式展示出来,方便多用户检视网站内容. 这些细节都是为了提升网站对于搜索引擎的友好度,提升搜索引擎抓取重点页面的效率而进行的基础优化.