新闻资讯News Information
网站首页 >新闻资讯 >Seo入门 >新站对robots文件的新用法

新站对robots文件的新用法?

时间:2012-09-06   
导读:新站对robots文件的新用法

新网站应该怎么优化?这个是很多刚刚入门不久的SEOer头疼的问题,在面对新站的时候,SEOer就像老虎吃刺猬,无从下手。在这里所说的新站有两种:一种是刚刚上线的站,一种是上线有一段时间了,但是从来没有做过优化。在这里我们来看一下对于刚刚上线的站该怎么去优化。
网站在刚上线的时候是需要调整的,而且还在搜索引擎的观察期。这时候可以先在robots中先把所有的蜘蛛都屏蔽掉,不允许蜘蛛到我们的网站爬行,在48个小时左右,robots生效以后再把我们网站的程序上传到我们的空间,这个时候就可以放心的去修改我们的网站了,等我们网站的结构、内部链接调整结束,网站的sitemap也制作并且上传,统计工具也按装完毕,这时候就可以敞开大门等待蜘蛛来网站来爬行。看明白了吧,没错这个就是新站对于robots文件的新用法。是不是有一定的道理呢。
在调整已经完成之后,到各大搜索引擎的入口去提交,让蜘蛛知道网站是新来的,特地来报到了,你不提交个没关系,只不过是提交了更加有利于蜘蛛在最短的时间内来网站爬行。一般提交的网站和没提交的网站蜘蛛的第一次爬行时间相差在24个小时,有的会相差时间更长。
搜索引擎对刚刚上线新站是很严格的,特别是百度,所以我们一定要关注网站日志,它是网站的晴雨表。只要每天蜘蛛都来,没有遇到404代码就放心,改怎么做就坚持怎么做。不过通常都是需要15天的时间,才会产生第一次快照。
搜索引擎的算法在不断的调整,客户的需求在不断的改变,SEO优化也需要不断的更新相关的技巧,就像本文提到的把robots文件的其他用途发掘出来,让SEO优化更加的快捷、稳定。

本站原创文章,转载请注明出处!

广州网站优化http://www.soola.net/news/830.html

020-8555-7485

粤ICP备09029216号

分享到

微信公众号

微信小程序

返回首页 回顶部