WSDM Cup 2020检索排序评测任务第一名履历总结|可以赌足球的app

本文摘要:在WSDM 2020国际网络搜索与数据挖掘集会上,由微软研究院提倡了一项学术评测任务Citation Intent Recognition,要求参赛者凭据论文中对某项科研事情的形貌,从论文库中找出与该形貌最匹配的Top3论文,本次评测属于经典的文本检索排序任务。美团搜索与NLP部与海内两所高校组队,提出了一种基于BERT和LightGBM的多模融合检索排序解决方案,拿下了WSDM Cup 2020 Task 1榜单的第一名。本文系获奖作者的履历总结文章。

可以赌足球的app

在WSDM 2020国际网络搜索与数据挖掘集会上,由微软研究院提倡了一项学术评测任务Citation Intent Recognition,要求参赛者凭据论文中对某项科研事情的形貌,从论文库中找出与该形貌最匹配的Top3论文,本次评测属于经典的文本检索排序任务。美团搜索与NLP部与海内两所高校组队,提出了一种基于BERT和LightGBM的多模融合检索排序解决方案,拿下了WSDM Cup 2020 Task 1榜单的第一名。本文系获奖作者的履历总结文章。

1. 配景第13届“国际网络搜索与数据挖掘集会”(WSDM 2020)于2月3日在美国休斯敦召开,该集会由SIGIR、SIGKDD、SIGMOD和SIGWEB四个专委会配合协调准备,在互联网搜索、数据挖掘领域享有很高学术声誉。本届集会论文任命率仅约15%,而且WSDM向来注重前沿技术的落地应用,每届大会设有的WSDM Cup环节提供工业界真实场景中的数据和任务用以研究和评测。

今年的WSDM Cup设有3个评测任务,吸引了微软、华为、腾讯、京东、中国科学院、清华大学、台湾大学等众多海内外知名机构的到场。美团搜索与NLP部继去年获得了WSDM Cup 2019第二名后,今年继续发力,拿下了WSDM Cup 2020 Task 1:Citation Intent Recognition榜单的第一名。本次到场的是由微软研究院提出的Citation Intent Recognition评测任务,该任务共吸引了全球近600名研究者的到场。本次评测中我们引入高校互助,参评团队Ferryman由搜索与NLP部-NLP中心的刘帅朋、江会星及电子科技大学、东南大学的两位科研人员配合组建。

团队提出了一种基于BERT和LightGBM的多模融合检索排序解决方案,该方案同时被WSDM Cup 2020任命为专栏论文。2. 任务简介任务要求参赛者凭据论文中对某项科研事情的形貌,从论文库中找出与该形貌最匹配的Top3论文。举例说明如下。

某论文中对科研事情[1]和[2]的形貌如下:An efficient implementation based on BERT [1] and graph neural network (GNN) [2] is introduced.参赛者需要凭据这段科研形貌从论文库中检索与[1][2]相关事情最匹配论文。在本例中:与事情[1]最匹配的论文题目应该是:[1] BERT: Pre-training of deep bidirectional transformers for language understanding.与事情[2]最匹配的论文题目应该是:[2] Relational inductive biases, deep learning, and graph networks.由上述分析可知,该任务是经典的检索排序任务,即凭据文本Query从候选Documents中找出Top N个最相关的Documents,焦点技术包罗文本语义明白和搜索排序。2.1 评测数据本次评测数据分为论文候选集、训练集、验证集和测试集四个部门,各部门数据的表述如表1所示:表1 评测数据分析表对本次评测任务及数据分析可以发现本次评测存在以下特点:与工业界的实际场景类似,本次任务数据量规模比力大,要求制定方案时需要同时思量算法性能和效果,因此相关评测方案可以直接落地应用或有间接参考的价值;为了保证方案具有一定落地实用价值,本任务要求测试集的效果需要在48小时内提交,这也对解决方案的整体效率提出了更高的要求,像常见的使用很是多模型的融合提升方案,在本评测中就不太适用;跟自然语言处置惩罚领域的一般任务差别,本次评测任务中数据多泉源于生命科学领域,存在较多的专有词汇和牢固表述模式,因此一些常见的方法模型(例如在通用语料上预训练的BERT、ELMo等预训练模型)在该任务上的直接应用是不合适的,这也是本次任务的难点之一。

2.2 评测指标本次评测使用的评价指标为Mean Average Precision @3 ([email protected]), 形式如下:其中,|U|是需要预测的description总个数,P(k)是在k处的精度,n是paper个数。举例来说,如果在第一个位置预测正确,得分为1;第二个位置预测正确,得分为1/2;第三个位置预测正确,得分为1/3。

3. 模型方法通过对评测数据、任务和评价指标平分析,综合考量方案的效率和精准性后,本次评测中使用的算法架构包罗“检索召回”和“精准排序”两个阶段。其中,检索召回阶段卖力从候选集中高效快速地召回候选Documents,从而缩减问题规模,降低排序阶段的庞大度,此阶段注重召回算法的效率和召回率;精准排序阶段卖力对召回数据举行重排序,接纳Learning to Rank相关计谋举行排序最优解求解。3.1 检索召回目的任务:使用高效的匹配算法对候选集举行粗筛,为后续精排阶段缩减候选排序的数据规模。

性能要求:召回阶段的方案需要权衡召回笼罩率和算法效率两个指标,一方面召回笼罩率决议了后续精排算法的效果上限,另一方面单纯追求笼罩率而忽视算法效率则不能满足评测时效性的要求。检索召回方案:角逐历程中对比实验了两种召回方案,基于“文本语义向量表征“和“基于空间向量模型 + Bag-of-Ngram”。由于本任务文本普遍较长且专有名词较多等数据特点,实验讲明“基于空间向量模型 + Bag-of-Ngram”的召回方案效果更好,下表中列出了使用的相关模型及其实验效果([email protected])。

可以看到相比于传统的BM25和TFIDF等算法,F1EXP、F2EXP等正义检索模型(Axiomatic Retrieval Models)可以取得更高的召回笼罩率,该类模型增加了一些正义约束条件,例如基本术语频率约束,术语区分约束和文档长度归一化约束等等。F2EXP界说如下:其中,Q表现查询query ,D表现候选文档,C(t, Q)是词t在Q中的频次,|D|表现文档长度,avdl为文档的平均长度,N为文档总数,df(t)为词t的文档频率。为了提升召回算法的效果,我们使用倒排索引技术对数据举行建模,然后在此基础上实现了F1EXP、DFR、F2EXP、BM25、TFIDF等多种检索算法,极大了提升了召回部门的运行效率。为了平衡召回率和盘算成本,最后使用F1EXP、BM25、TFIDF 3种算法各召回50条效果融互助为后续精排候选数据,在验证集上测试,召回笼罩率可以到70%。

3.2 精准排序精排阶段基于Learning to Rank的思想举行方案设计,提出了两种解决方案,一种是基于Pairwise-BERT的方案,另一种是基于LightGBM的方案,下面划分举行先容:1) 基于BERT的排序模型BERT是近年来NLP领域最重大的研究希望之一,本次评测中,我们也实验引入BERT并对原始模型使用Pointwise Approach的模式举行革新,引入Pairwise Approach模式,在排序任务上取得了一定的效果提升。原始BERT 使用Pointwise模式把排序问题看做单文档分类问题,Pointwise优化的目的是单条Query与Document之间的相关性,即回归的目的是label。而Pairwise方法的优化目的是两个候选文档之间的排序位次(匹配水平),更适合排序任务的场景。

详细来说,对原始BERT主要有两点革新,如下图中所示:革新训练样本结构形式:Pointwise模式下样本是根据形式结构输入,Pairwise模式下样本根据形式举行结构,其中Query与Doc1的匹配水平大于与Doc2的匹配水平。革新模型优化目的:Pointwise模式下模型使用的Cross Entropy Loss作为损失函数,优化目的是提升分类效果,而Pairwise模式下模型使用Hing Loss作为损失函数,优化目的是加大正例和负例在语义空间的区分度。在基于BERT举行排序的历程中,由于评测数据多为生命科学领域的论文,我们还使用了SciBERT和BioBERT等基于特定领域语料的预训练BERT模型,相比Google的通用BERT较大的效果提升。

2) 基于LightGBM的排序模型不外,上面先容的基于BERT的方案构建的端到端的排序学习框架,仍然存在一些不足。首先,BERT模型的输入最大为512个字符,对于数据中的部门长语料需要举行截断处置惩罚,这就损失了文本中的部门语义信息;其次,本任务中语料多来自科学论文,跟已有的预训练模型还是存在偏差,这也在一定水平上限制了模型对数据的表征能力。

此外,BERT模型网络结构较为庞大,在运行效率上不占优势。综合上述三方面的原因,我们提出了基于LightGBM的排序解决方案。LightGBM是微软2017年提出,比Xgboost更强大、速度更快的模型。LightGBM在传统的GBDT基础上有如下创新和革新:接纳Gradient-based One-Side Sampling(GOSS)技术去掉很大部门梯度很小的数据,只使用剩下的去预计信息增益,制止低梯度长尾部门的影响;接纳Exclusive Feature Bundling(EFB)技术以淘汰特征的数量;传统GBDT算法最耗时的步骤是使用Pre-Sorted方式找到最优划分点,其会在排好序的特征值上枚举所有可能的特征点,而LightGBM中会使用histogram算法替换了GBDT传统的Pre-Sorted,牺牲一定精度换取了速度;LightGBM接纳Leaf-Wise生长计谋,每次从当前所有叶子中找到破裂增益最大的一个叶子,然后破裂,如此循环。

因此同Level-Wise相比,在破裂次数相同的情况下,Leaf-Wise可以降低更多的误差,获得更好的精度。基于Light GBM的方案需要特征工程的配合。在我们实践中,特征主要包罗Statistic Semantic Features(包罗F1EXP、F2EXP、TFIDF、BM25等)、Distributed Semantic Features(包罗Glove、Doc2vec等)和Ranking Features(召回阶段的排序序列特征),而且这些特征划分从标题、摘要、关键词等多个维度举行抽取,最终构建成特征荟萃,配合LightGBM的pairwise模式举行训练。

该方法的优点是运行效率高,可解释性强,缺点是特征工程阶段比力依赖人工对数据的明白和分析。4. 实验效果我们划分对比实验了差别方案的效果,可以发现无论是基于BERT的排序方案还是基于LightGBM的排序方案,Pairwise的模式都市优于Pointwise的模式,详细实验数据如表2所示:表2 差别方案实验效果5. 总结与展望本文主要先容了美团搜索与NLP部在WSDM Cup 2020 Task 1评测中的实践方案,我们构建了召回+排序的整体技术框架。在召回阶段引入多种召回计谋和倒排索引保证召回的速度和笼罩率;在排序阶段提出了基于Pairwise模式的BERT排序模型和基于LightGBM的排序模型。

最终,美团也很是荣幸地取得了榜单第一名的结果。固然,在对本次评测举行复盘分析后,我们认为该任务另有较大提升的空间。

首先在召回阶段,当前方案召回率为70%左右,可以实验新的召回方案来提高召回率;其次,在排序阶段,还可以实验基于Listwise的模式举行排序模型的训练,相比Pairwise的模式,Listwise模式下模型输入空间变为Query跟全部Candidate Doc,理论上可以使模型学习到更好的排序能力。后续,我们还会再不停举行优化,追求卓越。

6. 落地应用本次评测任务与搜索与NLP部智能客服、搜索排序等业务中多个关键应用场景高度契合。现在,我们正在努力试验将获奖方案在智能问答、FAQ推荐和搜索焦点排序等场景举行落地探索,用最优秀的技术解决方案来提升产物质量和服务水平,努力践行“帮大家吃得更好,生活更好”的使命。参考文献[1] Fang H, Zhai C X. An exploration of axiomatic approaches to information retrieval[C]//Proceedings of the 28th annual international ACM SIGIR conference on Research and development in information retrieval. 2005: 480-487.[2] Wang Y, Yang P, Fang H. Evaluating Axiomatic Retrieval Models in the Core Track[C]//TREC. 2017.[3] Devlin J, Chang M W, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018.[4] Lee J, Yoon W, Kim S, et al. BioBERT: a pre-trained biomedical language representation model for biomedical text mining[J]. Bioinformatics, 2020, 36(4): 1234-1240.[5] Beltagy I, Lo K, Cohan A. SciBERT: A pretrained language model for scientific text[C]//Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). 2019: 3606-3611.[6] Chen W, Liu S, Bao W, et al. An Effective Approach for Citation Intent Recognition Based on Bert and LightGBM. WSDM Cup 2020, Houston, Texas, USA, February 2020.[7] Ke G, Meng Q, Finley T, et al. Lightgbm: A highly efficient gradient boosting decision tree[C]//Advances in neural information processing systems. 2017: 3146-3154.作者简介帅朋,美团AI平台搜索与NLP部。会星,美团AI平台搜索与NLP部NLP中心对话平台卖力人,研究员。

仲远,美团AI平台搜索与NLP部卖力人,高级研究员、高级总监。---------- END ----------招聘信息美团-AI平台-搜索与NLP部-NLP中心在北京/上海恒久招聘 NLP算法专家/研究员、对话平台研发工程师/技术专家、知识图谱算法专家,接待感兴趣的同学发送简历到:[email protected](邮件标题注明:NLP中心-北京/上海)。


本文关键词:WSDM,Cup,2020,检索,排序,评测,任务,第一名,履历,可以赌足球的app

本文来源:可以赌足球的app-www.shengen01.cn

Copyright © 2007-2021 www.shengen01.cn. 可以赌足球的app科技 版权所有   ICP备56718625号-5   XML地图   可以赌足球的app_有什么软件可以赌足球