一、分析网站根目录的 robots 协议是否正确。在建设网站后,蜘蛛爬取的个档案是网站的 robots 档案而非其他,因此正确的 robots 档案协议设定就显得特别重要。一般来讲,正确的设定原则有几个点: 1: 不希望蜘蛛索引的档案遮蔽掉。 2: 依据网站安全性考虑,一些活络的档案也需遮蔽。 3: 可将 xml 格式的地图放置到档案中。二、网站是否设定依据搜索引擎的 xml 格式的网站地图。网站地图关于搜索引擎来讲,是和睦的。能将网站的整体结构条理呈现给搜索引擎,以便于搜索引擎率的索引网站。关于网站地图的制作,有许多的教程,一些周六的 cms 建站系统也有相应的外挂,不在赘述。三、网站是否设定正确的 404 页面。早些年,404 页面并不是一个优化点,跟着搜索引擎演算法不断进化,许多点都能归纳于优化点。网站设定 404 页面,告诉多用户页面是否删掉无法访问,高手搜索引擎某页面的状况,是很有必要的。其他,不建议 404 页面自动跳转到主页或某一个页面,由多用户自动选择即可。四、分析网站连结的唯一性。许多时分,一个网站的页面能一同被多个页面访问到,这是不利于关键连结会集权值的。一般操作是设定一个更重要的 url 给搜索引擎,其他的连结通过 301 重定向指向这个 url,其他,可通过 canonical 标签予以处理。五、确诊网站同 ip 站点的健康状况。同一个 ip 站点有事有许多,假设其他站点或多或少存在不健康的状况,很有可能涉及到自己的站点,这种状况下,就需求确诊同 ip 站点是否存在问题。