百度优化指南是百度官方写的,一份总共才几十页的文档,但已提到了不少SEO需要注意的重点事项。
许多SEO轻视这份指南,觉得百度尽写些没价值的东西,而实际上不然。比如其中提到的两条:避免在重要内容使用ajax、URL需要保证唯一性,这两条非常重要,但我观察过的一些大型网站上,没找到过把这些完全做好的。而这却极大的影响效果,往往一个改动,就可以对某类页面的某项数据指标造成数十个百分点的影响。
《Google网站站长工具帮助》上面有着更详尽的内容。不过因为内容很多,我和公司所有产品经理说的是,这份资料可以考虑参考下,但百度的指南一定要记住。但对于SEO,这份资料至少是需要熟读的。
一般来说所有SEO的需求,最终落实到网站上都是技术人员来完成的。但大部分SEO需求,技术上都不是说实现就能实现。
比如一个例子,在子域名的根目录需要批量加入不同的robots.txt,有人或许觉得,不就是传个文件嘛,但多数情况下并不是这样。很多网站的架构中,不同子域名是共用一个根目录的,只能放同一个文件。解决起来其实很简单,把robots.txt用php什么的来动态解析,被访问时判断被访域名,并返回对应内容。但并不是每个程序员都经常遇到这种奇怪的需求,不少人一下想不到这个方法。
相关文章链接采用什么样的生成方式?具体到使用某开源程序或某算法的大致操作
何谓细节?对着一个预计
流量最多也占不到全站总量千分之一的页面,这边图片加个alt、那边关键词删删减减等等。尤其这一大堆修改对于稍大的公司一般都是提交给别人去做的,连累一群人。
而什么不是细节?列表页或内页模版上,这边图片加个alt、那边关键词删删减减等等(仅为举例,可做的有非常多,且大部分方法没法在网上看到)。因为公用页面的模版修改,影响是全站性的,再小的修改也可能让整站的流量有几个百分点的变动。