谷歌的系统无法验证内容的准确性;谷歌的搜索联络员丹尼·沙利文(Danny Sullivan) 9月9日在他的个人账户上发了一条推特(tweet),他表示,谷歌依赖的是公司认为与“话题和权威的相关性”相一致的信号。这引起了SEOs的注意,开始了一段对话。
这里是推特和引发它的问题。
机器无法判断内容的“准确性”。相反,我们的系统依赖于我们找到的与主题和权威相关的信号。参见:https://t。有限公司/ O65v1PTehr和https://t.co/cTveD8XNxp
——丹尼·沙利文(@dannysullivan) 2019年9月9日
这不是人气竞赛。当Bill Slawski, Go Fish Digital搜索引擎优化研究的主管,引用谷歌自己对搜索算法如何工作的解释,解释他们的意思是受欢迎程度决定了对内容的信心分数,沙利文回答说,“不。这不是流行。他接着解释说,“受欢迎程度”这个信号太过简单,可能不适用于新查询,而新查询占谷歌每日搜索量的15%。
为了追求更权威的搜索结果:一些历史。为了提高成绩的质量,谷歌于2017年4月宣布了Owl项目;该项目更加强调权威内容,并允许用户提供反馈,以自动完成搜索建议和精选片段答案。
2017年11月,谷歌还与Trust Project合作,为新闻内容带来更多透明度,打击虚假信息的传播。它的第一步是通过结构化数据标记,使出版商能够添加多达8个“信任指标”来披露信息,如谁资助新闻渠道、渠道的使命、作者的专业知识、文章的类型等等。
2019年9月,该公司更新了其搜索质量评估指南,强调要审查新闻来源、YMYL内容及其创建者。它还扩大了评分者对可能传播仇恨的内容给予最低评分的基础。
的反应。Sparktoro创始人兰德·菲什金不同意苏利文解释的基础,反驳说机器可以给内容指定精确度,并引用谷歌的“事实提取,从计算器的答案到电影记录到旅行信息。”
咨询公司DeCabbit的创始人朱迪思•刘易斯(Judith Lewis)强调了这个问题的复杂性,并补充称,机器学习确实“能够在一定程度上评估与个人经验无关的任何事情的准确性。”刘易斯还表示,沙利文的回答可能意味着在这个问题上给谷歌一些回旋余地。
JLH Marketing的总裁Jenny Halasz在推特上回应了可能会被许多seo分享的观点,“是的,一千次是的!谢谢你@dannysullivan。这是一个不会消失的神话。Halasz还指出,具有讽刺意味的是,谷歌本身提供的搜索结果内容声称,准确性是一个排名因素。
我们为什么要关心。内容的准确性对用户来说很重要,但是,正如Sullivan解释的那样,它不是谷歌的排名因素。主题相关性和权威性——不要与受欢迎程度混淆,这可能是两者的结果——是谷歌系统对内容进行排名的信号。