1、 学会分析网站日志
在网站日志中我们可以看出很多问题,网站日志可以记录各搜索引擎蜘蛛机器人爬行网站的详细情况,例如:哪个IP的百度蜘蛛机器人在哪天访问了网站多少次,访问了哪些页面,以及访问页面时返回的HTTP状态码。
如何查看网站日志?
网站日志一般存放在虚拟主机的logfiles文件夹下,可以通过FTP工具将网站日志下载下来,通过txt文档方式查看。在日志中我们常会看到这个代码,以下是百度和google蜘蛛机器人正常爬行代码(不同操作系统日志格式不一样)
2009-11-16 16:07:29 W3SVC181 218.16.119.161 GET /blog/post/373.html – 80 – 220.181.7.103 Baiduspider+(+http://www.baidu.com/search/spider.htm) 200 0 0 30999
2009-11-16 16:07:00 W3SVC181 218.16.119.161 GET /blog/feed.asp cate=3 80 – 203.208.60.164 Mozilla/5.0+(compatible;+Googlebot/2.1;++http://www.google.com/bot.html) 200 0 0 13205
这里面需要知道的,就是那个奇怪的数字“200”(另外那个数字表示抓取的文件大小)。“200”就是HTTP状态码。一般显示200表示正常收录,如果在搜索中找不到,那就是还没有放出来。
SEO过程中最常见的HTTP状态码有:
* 200 – 服务器成功返回网页
* 404 – 请求的网页不存在
* 503 – 服务器超时
网站日志是我们SEO人必须学会看的一个文件,当你网站收录不好时,网站日志会告诉你答案,搜索引擎蜘蛛机器人有没爬行你的网站,如果爬行了,显示的状态是什么。
2、你的网站内容是原创,还是采集?
搜索引擎都特别喜欢原创,如果你是采集怎么办?爱煮饭建议你通过良好的布局和内链结构来解决,采集方法我会在以后的文章详细介绍。
3、 网站外链质量和数量
从网站收录角度看,你的外链越多,你的网站被搜索引擎蜘蛛机器人爬行的机会就越多,只有搜索引擎蜘蛛机器人来爬行了,你的网站内容才有可能会被收录。
4、 网站打开速度
当一个网站收录量不理想,大家就应该去看看那些页面是不是被搜索引擎爬虫浏览过。如果一个页面都没有被搜索引擎爬虫浏览过,是不可能会被收录的。一个网站的收录量没有上去,那SEO流量的提升就会有很大的一个瓶颈。