很多时候我们在设计网站的过程中,会经常站在用户的角度去看待问题,因此用户体验被重视起来了,可是我们却很少真正在做这些的时候站在搜索引擎的角度去看待。其实网站在被抓取、索引和排名的时候会遇到些什么问题?解决了这些问题就是在设计的时候考虑到了搜索引擎友好(searh engine friendly)的。
首先,搜索引擎蜘蛛能不能找到网页。
其实要让搜索引擎抓取网站首页就必须要有外部链接连到首页,通过首页,蜘蛛能根据网站导航爬行到网站内部,通过清晰的内部的链接充分的扩展到整站的内页。内部链接需要有良好的结构,符合逻辑,并且所有的页面都是能让蜘蛛通过HTML代码就能爬行到,因为JS链接和Flash中的链接等都是蜘蛛无法爬行和跟踪的,这样就会造成收录的问题。
网站整体的结构需要有规划的布局,简单来说就是所有的页面都最好能在用户在4-5次点击之内就能都访问得到。这样说明的是网页权重的传递问题,这样能够更好的使其所有页面尽快被收录。
其次,找到网页后能不能抓取页面内容。
其实网站的页面被收录以后,页面上的URL一定是要能够被抓取的,那些数据库动态生成、带有过多参数的URL、Session ID、整页面的Flash、框架结构(Frame)/可疑的转向还有大量复制内容等这些都会让搜索引擎不友好、不抓取。 如果想让某些页面不被抓取,可以采用网站Robots文件或者Meta Robots标签来设置禁止抓取。
还有一点,抓取到这些页面以后如何提炼网站有价值的信息。
这些就是针对关键词在页面上重要位置的合理分布、重要标签的设置、HTML代码的精简还有兼容性问题等。这些都是可以让搜索引擎充分理解页面内容的关键,可以引导其提取有用信息。当搜索引擎收录页面并且顺利抓取到网站有价值的信息以后,网站才会被认定为搜索引擎友好!
今天就分享到这里,下次我想针对怎样去避免一些在做网站设计和推广过程中出现的不良行为,从而导致搜索引擎的进入陷阱等。