1. 只要你提供对用户有帮助的内容,而这些内容又可以被蜘蛛顺利抓取,正常情况下,就已经解决了大部分问题。
2.我们给bold的权重比strong稍高一点,但差别很小,不用在这方面想太多。(但后来更正为权重一样)。对两种斜体em和i两种标签的权重比也完全一样。
3.不用担忧很多网站共享同一个IP地址,放在同一架服务器上,对排名完全没有影响。
4. 上百万个网页同时上线,不一定有问题,但绝大部分情况下这都是够可疑的。所以他建议,你要真有这么多网页,最好尝试软性逐渐发布,几千页几千页的上线,可能会好一点。
5.如果不做搜索引擎优化,用户找不着你。
6. 内部有很多垃圾检测工具。(Kyw的理解:别傻乎乎的用所谓的SEO软件,有规律的作弊总能被检查出来。)Google
7. 建议大家可以用Yahoo Site Explorer查一下网站的反向链接,
8.不会担心是否符合符合W3C标准,因为40%的网页都有编码错误,搜索引擎不会因为网页上有错误而抛弃40%的网站内容。
9.静态和动态URL处理的方式是类似的,但不要在动态URL中使用太多参数,最多用两三个。同时不要用太长的数字,因为那可能会与Session ID混淆。最好能够用mod_rewrite进行URL改写,把动态URL改为静态URL。
10.根据用户IP返回不同内容,不会被认为是隐藏网页(cloaking)。但如果给予Google蜘蛛特殊的对待,就会被当作隐藏网页。
11.栏目中出现关键词不是重要,重要的是网站的确应该根据不同的话题来分成不同的目录,形成一个树型结构。至于目录名用什么就无关紧要了,重要的是在不同的目录下话题是紧密相关的。这样在各个目录下自然会包含关键词。
12. 内部有专门的补充材料小组在研究和观察,主Google蜘蛛和补充材料蜘蛛是分开的。当下一次补充材料蜘蛛来访你的网页的时候,如果看到了301转向或者质量的提高,自然网页会回到主索引库。
13. 就Matt Cutts所知GOOGLE没有用Google Analytics(GG提供的流量统计工具)收集数据。
14. 有各种不同的复制内容,比如说完全一样的网页,也有的是近乎复制的网页,我们有很多非常复杂的逻辑来进行检测。如果你觉得你可能有复制内容网页的问题,那就要确保你的网页之间全都不同。
15. 不建议下拉菜单中放入链接,这也不是标准的制作手法。他建议还是把链接放在网页底部或网站地图上。
16. 在Google进行算法更新的时候,或者测试新的功能的时候,都在一个数据中心先进行,确认质量达到我们的期望。完全不必要去观察不同数据中心返回的搜索结果。