技术SEO需求层次九个太阳街拍

是什么让一个网站成为最好的网站?健康的,功能性的网站已经充分发挥了他们的搜索引擎优化潜力,已经根据市场和关键字研究,E-A-T,搜索意图的内容相关性,反向链接简介等进行了优化。但它们都有一个共同点:它们的SEO技术需求都得到了满足。

网站的技术SEO需要形成一个层次结构。如果层次中较低的需求没有得到满足,那么下一层次的需求就很难得到满足。每个级别都响应搜索引擎世界中的不同需求:可爬行性、可索引性、可访问性、可排名性和可点击性。

理解金字塔的每一层所涉及的内容,有助于使技术SEO看起来不那么吓人,而不会过分简化它在网站伟大中的作用。

技术SEO的基础:可爬行性

SEO技术需求金字塔的基础是URL的可抓取性。

爬行能力是指一个URL被搜索引擎机器人发现的能力。无法抓取的url可能仍然可以被浏览你网站的用户访问,但是因为机器人看不见它们,它们不能出现在搜索结果中。

因此,可抓取的url是:

为搜索引擎所熟知。搜索引擎通过抓取链接和阅读站点地图来发现url。

不禁止机器人。大多数搜索引擎机器人会尊重robots.txt文件中的元机器人指令和指令,这些指令要求它们不要抓取某些页面或目录。

由网站的爬行预算支付。不太常见的是,谷歌算法所提供的“预算”花在了站点的其他部分,这导致了抓取特定URL的延迟或问题。

例如,技术搜索引擎优化审计的第一步是发现不能被索引的页面,以及为什么。有时这是故意的,有时这是一个错误和快速胜利的SEO。

类似地,尽管爬行预算看起来晦涩难懂,难以量化,但基本原则是,当爬行成本得到优化,优先级页面首先出现时,可以通过搜索引擎获得更多流量。技术SEO使用页面的发现和优先级来促进更好的爬行;它利用历史数据进行爬网频率,并利用过去的情况提高爬网活动,以提高当前的爬网率。

按页面组分发的新抓取的页面。“其他”灰色类别是垃圾类别。大量的爬行预算被浪费在爬行这些页面上。来源:OnCrawl。

Indexability

在SEO技术需求层次中,仅次于爬行能力的是可索引性。

可索引url是搜索引擎可以包含在可在搜索结果页面中显示的页面目录中的url。即使URL已经被抓取,各种属性也会阻止它被添加到索引中。

在最直接的情况下,可以通过元robots和robots.txt指令阻止页面被索引。

按页面策略组划分的可索引性状态。来源:OnCrawl

但是当有针对相同内容的更权威的版本存在时,谷歌也选择不建立页面索引。当机器人发现以下元素时,就会出现这种情况:

重复的内容。

规范的声明。

可打印页面或移动页面等替代版本。(在当前移动优先索引中,移动版本被编入索引,而不是桌面版本。)

重定向。

为了确保能够索引正确的页面,technical SEO验证这些元素是否正确设置,以及它们是否应用于正确的页面。

无障碍程度和网站表现

可访问的URL很容易显示或呈现。

一个既可抓取又可索引的URL,当搜索引擎的机器人试图抓取它时,可能仍然无法访问。页面和网站排名,但有持久的可访问性问题往往在搜索结果中受到惩罚。

机器人和用户的可访问性涵盖了广泛的相关主题:

服务器性能。

HTTP状态。

加载时间/页面大小。

JavaScript渲染。

站点架构中的页面深度。

孤儿页面。

网站抵抗垃圾邮件和黑客攻击。

我们的目标是发现可访问性和性能指标对SEO性能产生负面影响的阈值,并确保网站的所有页面至少达到这个最低水平。因此,技术SEO使用工具来测量任何东西,从服务器宕机或服务给机器人和用户的HTTP状态,到页面被请求时传输的资源大小(CSS, JS,图片…),或加载时间指标,如TTFB, FCP,或TTLB。

桌面和移动机器人之间的平均响应时间和遇到的资源。来源:OnCrawl

搜索引擎优化技术审计的结论是您需要某些页面的链接,这通常是为了消除性能不佳的孤立页面和页面深度过高的url。有些包括对用户的可访问性;不管怎样,一个不能与屏幕阅读器一起使用的页面都不能被许多用户使用

滚动至顶部