在2015年,谷歌搜索控制台已经开始主动警告站长不要阻塞CSS和JS文件。在2014年,我们告诉过你同样的事情:不要阻塞CSS和JS文件。我们感到现在有必要重复这一信息。在这篇文章中,我们将解释为什么你不应该从Googlebot中屏蔽这些特定的文件。
为什么不应该阻止CSS和JS文件
你不应该阻止CSS和JS文件,因为那样,你阻止了谷歌检查你的网站是否正常工作。如果你阻止CSS和JS文件在你的robots.txt文件,谷歌不能呈现你的网站像预期。这,反过来,使谷歌不能完全理解你的网站,甚至可能导致较低的排名。更重要的是,甚至像Ahrefs这样的工具也开始呈现web页面并执行JavaScript。所以,如果你想让你最喜欢的SEO工具工作,不要阻止JavaScript。
我认为这完全符合一般的假设,即谷歌变得越来越“人性化”。谷歌只是想看到你的网站像一个人的访客,所以它可以区分主要元素和“额外的”。谷歌想知道JavaScript是增强了用户体验还是破坏了用户体验。
测试和修复
谷歌在这个指导网站站长,例如在阻止资源检查在谷歌搜索控制台:
搜索控制台-阻止资源示例|不阻止CSS和JS文件
除此之外,谷歌搜索控制台允许你测试任何文件对你的Robots.txt设置爬行> Robots.txt测试:
txt测试器|不阻止CSS和JS文件
测试人员会根据你的robots.txt文件告诉你什么文件允许,什么文件不允许。更多关于这些抓取工具的信息,请点击这里谷歌搜索控制台。
要解除这些阻塞资源的阻塞基本上需要更改robots.txt文件。你需要以这样的方式设置文件,它不禁止谷歌访问你的网站的CSS和JS文件了。如果你使用WordPress并且使用Yoast SEO,这可以在我们的Yoast SEO插件中直接完成。
在robots.txt中阻止CSS和JS文件
老实说,我们认为你不应该阻止robots.txt文件中的任何内容,除非有非常特殊的原因。这意味着你必须知道自己在做什么。在WordPress中,你可以在大多数情况下不阻塞任何东西。我们经常在robots.txt文件中看到/wp-admin/ disallowed,但在大多数情况下,这也会阻止谷歌访问某些文件。没有必要不允许这个目录,Joost在这篇文章中解释了这一点。
我们再说一遍
我们之前说过,我们还会再说一遍:不要阻止Googlebot访问你的CSS和JS文件。这些文件允许谷歌体面地渲染你的网站,并得到它看起来是什么样子的一个想法。如果他们不知道它是什么样子的,他们就不会信任它,这对你的排名没有帮助。