热点聚集
今天我们来说下如何开发一个SEO友好的网站呢?下面一起来看下吧
1.可索引的内容 网站内容 - 也就是网站访问者能看到的材料必训是HTML文字形式,虽然爬行技术有了很大的进步。但是大部分的图片、Flash、js应用和其他非文字性内容不能被搜索引擎蜘蛛所看到。 蜘蛛喜欢HTML里面的内容,可以把文字词和词组放到HTML代码中,图片加ALT标签。为搜索引擎提供视觉描述。类似的,使用CSS样式可以将图片代替文字显示给用户,这个技术被称为CSS图片替换。
2.XML网站地图 · 改善对网站的爬行,比如内容最后修改的日期以及网页变化频率 · 对那些搜索引擎不知道的页面,他们使用你提供的额外URL提高爬行覆盖面。 · 对含有重复内容的URL,搜索引擎可以使用XML网站地图数据帮助选择一个规范版本。
3.可爬行的链接结构 搜索引擎通过页面上的链接帮他们发现其他网页和网站。所以网站开发人员应该花时间建立一个蜘蛛容易爬行的链接结构。很多网站在这里犯了致命的错误,将导航隐藏起来或者不清晰,使爬行非常困难,影响搜索引擎收录进索引库。 · 隐藏在需要提交的表格中的链接 · 不能解析的js脚本中的链接 · Flash、java和其他插件中的链接 嵌在java和插件中的链接搜索引擎看不到。理论上说Flash中链接方面有一些进步,但不要把希望放在这上面。 · powerpoint(幻灯片)和PDF文件中的链接,搜索引擎有时会显示powerpoint(幻灯片)和PDF文件中的链接,但是计算多少权重无法知道。 · 指向meta robots标签
rel="nofollow"和robots.txt屏蔽页面的链接 · 页面上有几百上千个链接 -------Google曾建议页面最多放100个链接,超过这个数值,蜘蛛可能就停止爬行更多的链接,这个限制在某种程度上的说是灵活的,重要的页面可能允许150-200个.不过一般来说最好是在100个以内。 · frame(框架)和iframe里链接 (百度已经淘汰)
3.可爬行的链接结构 搜索引擎通过页面上的链接帮他们发现其他网页和网站。所以网站开发人员应该花时间建立一个蜘蛛容易爬行的链接结构。很多网站在这里犯了致命的错误,将导航隐藏起来或者不清晰,使爬行非常困难,影响搜索引擎收录进索引库。 · 隐藏在需要提交的表格中的链接 · 不能解析的js脚本中的链接 · Flash、java和其他插件中的链接 嵌在java和插件中的链接搜索引擎看不到。理论上说Flash中链接方面有一些进步,但不要把希望放在这上面。 · powerpoint(幻灯片)和PDF文件中的链接,搜索引擎有时会显示powerpoint(幻灯片)和PDF文件中的链接,但是计算多少权重无法知道。 · 指向meta robots标签
rel="nofollow"和robots.txt屏蔽页面的链接 · 页面上有几百上千个链接 -------Google曾建议页面最多放100个链接,超过这个数值,蜘蛛可能就停止爬行更多的链接,这个限制在某种程度上的说是灵活的,重要的页面可能允许150-200个.不过一般来说最好是在100个以内。 · frame(框架)和iframe里链接 (百度已经淘汰)
4.创建最佳信息架构 设计好的架构对用户和搜索引擎有很多好处 符合逻辑、以分类为基础的信息流动的重要性 搜索引擎理解网站时面对无数技术挑战。蜘蛛不能像人一样理解网页,因此在访问性和索引方面都存在显著局限。 有逻辑性、适当构造网站架构可以帮助克服这些难题,为搜索流量和易用性带来好处。
网站结构的核心在于两个重要原则: a:易用性,或者说使网站容易使用; b:信息架构,或者说为内容创造一个有逻辑的分层结构。
好的,今天就说这么多了,希望对大家有所帮助哦
好的,今天就说这么多了,希望对大家有所帮助哦
上一篇:网络推广营销网站内容打造策略
标题:推广营销探讨如何开发一个SEO友好的网站
地址:http://wenfangge.com/news/210.html
注明“来源:文芳阁”的所有作品,版权均属于文芳阁软文推广平台,未经本网授权不得转载、摘编或利用其它方式使用上述作品,如有对内有异议请及时联系btr2030@163.com,本人将予以删除。