我们都知道网站优化是从网站建设的起初就要做的事情,很多时候我们后期的优化不到位的原因就是在于网站建设的过程中有些技术问题导致的。这些技术很多时候被称为蜘蛛陷阱,不知道您的网站是否有掉进这个陷阱中呢?今天我们就来总结一下蜘蛛陷阱是体现在哪里的呢?网站技术方面的陷阱:
有的网站整个页就是一个很大的 flash,这就构成了蜘蛛陷阱。搜索引擎住宅区的 html 代码只有一个链向 flash 档案的连结,没有其他文字内容。还有网站在页的 banner 就使用一个 flash,并且新增活动连结,虽然对多用户来说能够直观的看到活动内容,但是对于蜘蛛来说,就无法识别,而且抓取不到 flash 的链向地址。由于 javaScript 可以创再出很多吸引人的视觉效果,有些网站喜欢使用 javascript 指令码生成导航系统。这也是比较严重的蜘蛛陷阱之一,虽然搜索引擎都在尝试解析 JS 指令码,不过我们不能寄希望与搜索引擎自己去客服困难,而要让搜索引擎跟踪爬行连结的工作尽量简单容易。 jacascritp 连结在 SEO 站群中也有特殊用途,那就是站群站长不希望被收录的页面,比希望被百度抓起的连结,可以使用 javascript 指令码阻止搜索引擎蜘蛛爬行!很多网站为了实现某种功能,强制使用 cookies, 多用户浏览器如果没有启用 cookies,页面显示不正常。搜索引擎蜘蛛就相当于一个禁止了 cookies 的浏览器,强制使用 cookies 只能造成搜索引擎蜘蛛无法正常访问。虽然现在搜索引擎在不断完善他的抓取功能,但是我们也要尽量避免不友好的页面,不然会给我们的网站带来不必要的麻烦。
网站布局方面的陷阱:使用框架结构设计页面,在网站诞生初期曾经听流行,但是现在网站已经很少使用框架了,不利于搜索引擎抓取是框架越来越不流行的重要原因之一,对于搜索引擎来说,访问一个使用框架的网址所抓取的 html 只包含呼叫其他 html 档案的代码,并不包含任何文字资讯。搜索引擎无法判断这个网址的内容是什么。总之,如果您的网站还在使用框架,或者您的老板要使用框架结构,要记住的是,忘记使用框架这回事。和 Flash 一样,别浪费时间研究怎么让搜索引擎收录框架结构网站。有些网站的内容需要多用户登入后才能看到的页面,这部分内容搜索引擎是无法看到的。这个要注意确定是否是需要登入以后才能看到。有些网站使用 sission ID(会话 ID)跟踪多用户访问,每个多用户访问都会生成一个独特的 session ID,加在 URL 中。搜索引擎蜘蛛的每一次访问也会被当成一个新的多用户,URL 中会加上一个不同的 session ID,这样搜索引,擎每次来访问时所得到的同一个页面的 URL 将不一样,后面带着一个不一样的 session ID 。这也是常见的蜘蛛陷阱之一。其他陷阱:除了 301 跳转以外,搜索引擎蜘蛛对其他形式的跳转都比较敏感,如 302 跳转,javascript 跳转、 meta refresh 跳转。如果必须转向,301 转向是搜索引擎推荐的、用于网站更改的转向,可以吧页面权重从旧网址转移到新网址。其他的转向方式都对蜘蛛爬行不利。所以除非万不得已,尽量不要使用 301 转向以外的跳转。动态 URL 值的是资料库驱动的网站所生成的、带有问号、等号及引数的网址。一般来说动态 URL 不利于搜索引擎蜘蛛爬行,应该尽量避免。虽然百度现在已经能够识别动态 URL 了,但是也不能保证百分百能识别。