恩典在线如何积极主动地防止一个负面的SEO活动

在之前的文章中,我们讨论了什么是负面SEO,什么不是,以及如何确定你是否真的受到了负面SEO的影响。在基本的方法之外,现在是时候看看如何在负面SEO(搜索引擎优化)活动中保护你的网站安全了。

首先,我有一些坏消息:不存在防黑客的东西。

而且没有什么是防反核辐射的!

您所能合理地做的就是采取行动,通过减少攻击向量来减少成为受害者的可能性。通过这种方式,任何想要伤害他人的人都必须比一般网站更加老练,付出更大的努力。

在这一期的负面搜索引擎优化系列中,我们将把搜索引擎优化分为三个方面:内容、链接和用户信号,并重点保护这三个方面以及你的网站,使其不成为负面搜索引擎优化的受害者。

内容和基础设施

托管。你的主人能做什么让你远离麻烦?事实上,相当多。我考虑过是否将托管作为用户信号矢量,但还有另一个关键因素在起作用:声誉。

如果你解决100%的问题在这篇文章中,但你碰巧在一个共享IP和十几个其他域标记分发恶意软件或通过电子邮件被屏蔽垃圾邮件检测服务或受手动链接行为从谷歌,你在一个糟糕的时间。

至少,您希望确保您所关心的域有一个专用的IP,理想情况下,将站点放在自己的专用服务器上。

不共享托管服务器的另一个好处是什么?它成为一个更少的攻击矢量任何人试图执行负面SEO可以雇用。他们不能通过同一个主机上的安全意识较低的域访问您的主机,这让您更安全一些。

CMS的考虑。并不是所有的内容管理系统(CMS)都是一样的。当您试图创建单个页面时,有些会自动生成常规、归档和单独的图像页面。有些会自动允许dofollow对帖子进行评论,这是对垃圾邮件的公开邀请。

由于世界上大多数的网站都运行在WordPress上,禁用评论,在标签页面,作者档案页面和分类页面添加noindex对我来说很有意义。有些人可能不同意,但我的重点是试图只索引和排名高价值的页面,一个障碍,标签,归档和分类页面很少清除。

对于某些内容管理系统,确保使用适当的规范化来防止重复内容由于分页和其他查询字符串无意义而被索引,这一点很重要。

robots . txt。我发现robots.txt操作是一把双刃剑。这并不是因为经常会发现导致整个域被取消索引的错误,而是因为爬行规则过于严格时所发生的事情。

根据谷歌如何处理域的固有权威和URL中使用的关键字,可以对URL字符串中包含不需要的短语的页面进行排名。例如:

exampledomain.com/directory/undesirablekeywordphrase

由于robots .txt规则阻止谷歌实际爬行该页面,因此谷歌必须相信该页面可能是“好”的(或者根本就存在),然后(通常)对其进行排序。

这往往比其他行业更困扰大型媒体网站。对于我们其他人来说,最大的风险减少之一就是禁止搜索页面被抓取和索引。在不知道你使用哪种CMS的情况下,这里有一些通用的建议供你选择:

不允许:/搜索/

不允许:/ * ? s =

不允许:/ * ? q =

正确的robots.txt设置不仅仅是为了将低质量的页面排除在索引之外。为了调整你的爬行预算,告诉搜索引擎不要抓取预览页面也是很重要的——这可以确保爬行机器人不会浪费时间陷入蜘蛛陷阱。在WordPress中做到这一点相对容易,因为这些是这些页面的典型结构:

不允许:*预览=

不允许:* ? p =

不允许:* =代替

刮。不,我不会建议你把抓取内容作为一种保护自己的手段;恰恰相反。你需要积极主动地使用内容保护服务,以确保你的图片和文字不会在未经你授权的情况下被其他网站使用。

虽然谷歌现在可以更好地确定哪些站点是原始源,但是使用权威域作为寄生主机仍然存在一些问题。

攻击者会通过嗅探他们的站点地图,有目的地寻求持续爬行目标域。然后,攻击者将在您实时推送内容的几秒钟内将您上传的任何新内容发布到寄生主机上。

使用Copyscape或Plagium这样的服务来找到这些内容窃贼。如果他们成功地窃取了你的内容,你可能需要联系托管公司,请求删除或发布DMCA或

滚动至顶部