Google BERT:对复杂查询有更好的了解

什么是Google BERT?
BERT是一种基于神经网络的自然语言处理(NLP)技术,已在Wikipedia语料库上进行了预培训。完整的首字母缩略词是“变压器”中的“双向编码器表示形式”。那真是满嘴。这是一种机器学习算法,可以帮助您更好地理解查询和内容。

您需要记住的最重要的事情是,BERT使用句子中所有单词的上下文和关系,而不是一个接一个地排列。因此,BERT可以通过查看单词前后的单词来找出单词的完整上下文。它的双向部分使BERT独树一帜。

通过应用此功能,Google可以更好地了解查询的全部内容。 Google在启动博客文章中发布了一些示例查询。我不会重复所有步骤,但只想重点介绍一下,以便您了解它在搜索中的工作方式。对于人类而言,[2019年前往美国的巴西旅行者需要签证]的疑问显然是关于回答巴西籍旅行者是否需要在2019年为美国签证的问题。计算机在这方面很难。以前,Google会在查询中省略“ to”一词,从而扭转了含义。 BERT会考虑句子中的所有内容,从而弄清其真正含义。

从示例中可以看到,BERT在更复杂的查询中效果最好。从头搜索时,它不是启动功能,而是长尾查询。谷歌表示,它仍然会影响十分之一的搜索量。即便如此,Google仍然说BERT有时会出错。这不是语言理解的最终解决方案。

了解更多:Google是否了解问题,我是否应该针对这些问题进行优化? »

Google在哪里申请BERT?
为了对内容进行排名,目前BERT在美国推出了英语版本。 Google还将利用BERT的知识来改善其他语言的搜索。如今,BERT在所有显示这些丰富结果的市场中都用于特色片段。根据Google的说法,这将在这些市场带来更好的结果。

有用的资源
我们不会详细介绍BERT的功能,而是谈论它对NLP的影响以及它现在如何被整合到搜索中,因为我们正在采用另一种方法。如果您想了解它是如何工作的,则应该阅读研究。幸运的是,有很多关于该主题的可读文章。

原始的BERT论文(pdf)包含您需要找出BERT如何工作的所有内容。不幸的是,这是非常学术性的,大多数人都需要一些“翻译”。幸运的是,凯塔·库里塔(Keita Kurita)解剖了原始的BERT论文,并将其转变为可读的知识:BERT:解释了用于语言理解的深度双向变压器的预训练。
拉尼·霍列夫(Rani Horev)的文章BERT解释:NLP的最新语言模型也对原始Google研究论文进行了很好的分析。
关于这一主题,Dawn Anderson是最有趣的SEO之一。查看她对BERT的史诗般的深入研究,以及名为Google BERT和家庭和自然语言理解排行榜竞赛的幻灯片。
需要NLP(计算机用来理解人类语言的技术)入门知识吗?这里有六分钟的阅读时间:自然语言处理简介。
而且,由于Google开源了BERT,因此您可以在GitHub上找到整个内容。为什么不运行自己的模型和实验?
另外,AJ Kohn的一篇很棒的文章-来自去年,但非常相关-关于如何分析嵌入时代的算法变化。
最后但并非最不重要的一点是,《连线》杂志作者约翰·帕夫鲁斯(John Pavlus)撰写的一篇名为《计算机》的文章正在学习阅读,但仍然不够聪明。
这应该使您对快速发展的语言理解世界中发生的事情有深刻的了解。

Google的最新更新:BERT
此次BERT更新最重要的收获是,Google再次变得更加接近于在人的层面上理解语言。对于排名,这意味着它将显示更适合该查询的结果,并且只会是一件好事。

除了您已经在做的工作以外,没有对BERT进行任何优化:生成高质量的相关内容。需要撰写精彩内容的帮助吗?我们有深入的SEO文案写作培训,向您展示了绳索。

滚动至顶部