fjtc处理重复内容

“重复内容”这个词让许多站长和seo感到恐惧。但事实是,并非所有重复的内容都是一样的。

由于内容是好的SEO的核心元素,许多人试图通过使用旧的“复制粘贴”方法来操纵结果。谷歌惩罚这种方法,所以它会让你感到恐惧。

但是如果你无意中在你的网站上创建了一些重复的内容,不要惊慌。下面,我们将看看谷歌如何处理重复的素材,我将分享一些技巧,你可以使用,以确保你的网站的内容是新鲜和独特的。

为了更好地理解谷歌如何处理重复内容,您需要阅读它们的概述。如果你害怕被惩罚,让我引用上面这篇文章来帮你松一口气。

“网站上的重复内容不能作为在该网站采取行动的理由,除非重复内容的意图是欺骗和操纵搜索引擎结果。””——谷歌

好了,现在你知道谷歌并不是为了你,但是如果你有重复的内容,你应该花一些时间来清理它。重复内容通常分为三种类型:完全重复、接近重复和跨域重复。

完全复制:两个url有相同的内容。

近乎重复:两个内容有小的区别。

跨域重复:确切的或接近重复的内容存在于多个域上。

重复的内容可能由各种不同的因素造成。在某些情况下,网站许可内容在其他地方使用;糟糕的站点架构缺陷也是一个原因。抄袭导致内容重复,我认为最常见的原因是CMS问题。

虽然所有这些都可能产生问题,但我们必须以特定的方式处理每一个问题。在我们进入提示之前,让我们处理重复内容的后果。

重复内容的后果

如果你张贴了一块重复的内容由于疏忽,搜索引擎在大多数情况下会简单地过滤掉,并显示他们认为是最好的版本在SERPs。

有时候,他们会在索引之前把它过滤掉。用户希望搜索结果多样化。所以爬行器和引擎都在尽最大的努力来实现这一点。下面是与重复内容相关的一些常见后果。

浪费的爬行:一个搜索机器人带着爬行预算来到您的站点。如果你有很多重复的内容,它浪费了机器人的爬虫预算,你的独特的,好的页面将会被更少的爬行和索引。

浪费的链接资源:重复的页面可以获得PageRank和链接权限,但这没有帮助,因为谷歌不会对重复的内容进行排名。这意味着你浪费了这些页面的链接权限。

SERPs中的错误列表:没有人确切知道搜索算法是如何工作的。因此,如果您有多个页面具有精确或近似重复的信息,您就不必决定哪些页面被过滤,哪些页面被排名。这意味着你想要排名的版本可能会被压制。

如何避免重复内容

在你的网站上有重复的内容对搜索引擎或你的最终用户没有用处。也就是说,你可以防止负面影响的照顾问题。

下面有一些方法可以解决你遇到的重复内容问题。

使用301重定向:这是一个有用的方法,如果你计划删除任何重复的内容片段从你的网站。由于其中一些页面可能已接收到链接,最好将这些页面永久重定向到正确的URL。这将告诉用户,在这种情况下,更重要的是,告诉搜索机器人,在哪里可以找到合适的内容。

阻塞与机器人。txt:另一个经常推荐的选项是使用robots.txt文件来阻止复制页面被抓取。但是,谷歌不推荐这种方法,它说:“如果搜索引擎不能抓取具有重复内容的页面,它们就不能自动检测到这些url指向相同的内容,因此必须有效地将它们视为独立的、唯一的页面。”

使用rel= ” canonical “:如果您打算保留重复的内容,使用rel= ” canonical “链接元素是一个很好的选择。这一步告诉搜索机器人哪个版本的内容是“真正的”版本。把这个标签添加到你重复的内容的头,链接如下:

< link rel = “规范化” href = ” https: mytruecontent.com ” >

这段代码告诉搜索机器人在哪里可以找到真正的内容。

虽然重复内容是一个问题,并且可能在serp中对您造成伤害,但它并不像许多人认为的那样可怕。除非您恶意地试图操纵serp,否则谷歌和其他搜索引擎通常不会惩罚您。但是,如上所述,在你的网站上有重复的内容仍然有负面的后果。我建议爬你的网站,然后尽你最大的努力清理和解决所有问题

滚动至顶部