必应表示,自4月份以来,它一直在使用“伯特”搜索引擎中国站长统计

微软表示,必应自4月份以来一直在使用BERT来提高搜索结果的质量。transformer模型现在全局地应用于每个Bing查询。

点击放大。来源:微软。

在上面的例子中,Bing改进了自然语言处理能力,这使得它能够理解用户想要了解在遭受脑震荡后应该避免什么。在添加这些变压器模型之前,结果与脑震荡症状有关。

为什么我们应该关心

更好的自然语言理解应该为用户带来更相关的搜索结果。我们现在知道,Bing和谷歌都在使用这些先进的算法来通知搜索结果,特别是那些触发较长查询的搜索结果。事实上,必应在谷歌发布BERT之前6个月就开始实施BERT来改善搜索结果。必应表示,这导致了去年搜索质量的最大改善。

Bing平台的项目经理Jeffrey Zhu解释说:“与之前的深度神经网络(DNN)结构不同,‘变形金刚’可以理解每一个单词和句子中围绕它的所有单词之间的上下文和关系。”“从今年4月开始,在过去的一年里,我们使用了大型的transformer机型,为必应用户提供了最大的质量改进。”

BERT建立在Bing智能搜索功能的深度学习能力之上,比如利用多个来源的智能答案,带有物体识别的智能图像搜索,以及对不常见单词的悬空定义。这些改进可以帮助必应保持或增加其在搜索市场的份额,这将继续使其成为有机营销和付费营销的可行平台。

更多有关公告

微软通过使用Azure n系列虚拟机和GPU加速器来实现transformer模型,然后进行进一步优化,以在web搜索范围内执行并行计算。

了解更多关于BERT的信息

这里有一些额外的资源,可以扩展您对自然语言处理的最新突破的理解

滚动至顶部