无论你的网站是用shopify、wordpress还是magento构建的,都要注意你的网站需要优化。
当我们讨论网站的优化,特别是网站优化时,我们主要包括
两个方面:
一个在页面上。
另一种是网站结构优化,也称技术SEO。
随着搜索结果的竞争越来越激烈,对搜索引擎优化技术也提出了更高的要求。
一个表现良好的网站必须是可爬的,快速和安全的。
技术seo包含了很多内容,包括网站结构设计、url、网络地图等,是一个很有技术含量的方面。
今天上午,本网主要谈了网站SEO优化技术的六个基本方面。如果我们在这六个方面做得好,网站的性能会更加优化和健康。
很多人可能觉得这一章枯燥乏味,但它真的很重要。
因为一个网站,如果你在获取流量上花了很多时间,比如广告,比如红人,但是基本文章的审核还没有通过,那么无形就会大大增加你网站的营销成本。
想象一下,一个网站在两秒钟内打开,一个网站在十秒钟内打开。那能一样吗?
所以从网站优化的角度,特别是从技术优化的角度,我们应该从以下几点进行优化:
一、对于搜索引擎优化来说,高质量的内容是必不可少的。但只有高质量的内容是不够的。如果搜索引擎抓不到这一页,那么你苦心经营写的不是白费力气吗?
如您所见,hallam不允许以/wp admin开头的url。通过指定禁止这些url的位置,可以节省带宽、服务器资源和爬网预算。
同时,搜索引擎爬虫在抓取网站重要部分时不应被禁止。
因为旧版本的搜索引擎控制福州新版本有更多的功能,旧版本将更好地用于技术seo。
例如,旧版本可以在webmaster工具上查看crawstats,这更便于理解网站的爬网方式。
报告有三个图表显示了过去三个月的数据。
每天爬网的页面数、每天下载的千字节数和下载页面所花费的时间(以毫秒为单位)可以显示网站的爬网速度以及与搜索引擎爬网程序的关系。
搜索引擎爬虫定期访问一个网站,这是一个快速而容易爬网的网站,该网站会有很高的爬网速度。
如果加载一个页面很长时间,则表示爬网程序爬网时间过长,索引速度慢。
您还可以在新版搜索引擎控制中查看覆盖率报告中的爬网错误。
这些地方是有爬行问题的页面。单击以显示这些页面。检查导致这些页面爬行的原因,尽快解决这些问题。
如果在crawstats或coverage报告中发现明显的爬网错误或波动,则可以分析和查看日志文件。
从服务器日志访问原始数据可能会很麻烦,因为分析是一个不常用设置,但它有助于准确了解哪些页面可以被爬网,哪些页面不能被爬网。
哪些页面将被优先考虑,哪些区域有预算浪费,哪些爬虫在爬网过程中接收哪些服务器响应。
二、在检查爬虫程序是否可以对网站进行爬网之后,还需要了解网站上的页面是否被谷歌索引。
有很多方法可以检查这个问题。前面使用的搜索引擎控制覆盖率报告可用于查看每个页面的状态。
相关文章
- 要想减少SEO优化的难度,需要做好哪些工作?2020年01月08日
- 如何更加容易的做好搜索引擎优化工作?2020年01月08日
- SEO策划在网站前期的重要性!2019年12月31日
- 如何优化搜索引擎?2020年01月06日
- SEO关键词的核心定位是什么?2020年01月06日