emval多语种新闻相似度评测冠军系统简介

转自公众号 ”哈工大讯飞联合实验室“

论文标题:HFL at SemEval-2022 Task 8: A Linguistics-inspired Regression Model with Data Augmentation for Multilingual News Similarity

论文作者:徐梓航,杨子清,崔一鸣,陈志刚

SemEval-2022 Task 8是多语种新闻相似度评价任务。任务中给出来自多种语言的新闻篇章对,参赛队伍需要利用模型判定每一对新闻篇章是否描述了同一个事件,并以1至4分的范围为两篇新闻的相似度打分。任务共计覆盖10种语言,包括阿拉伯语、德语、英语、西班牙语、法语、意大利语、波兰语、俄语、土耳其语和中文。与普通的文章相似度任务相比,该评测任务强调考察模型的跨语言理解能力,并要求模型把握文章中描述的具体事件,而不仅是写作风格。

SemEval 2022 Task8 数据样例

我们在语言学特征的启发下,基于多语言预训练模型和回归任务框架,针对当前比赛任务制定了一系列优化策略,最终系统结构如下图所示。整个系统流程包括数据处理、模型训练和预测结果后处理三个阶段:

数据处理:从指定网页爬取数据,进行数据清理,对清理后的数据做数据增强;

模型训练:采用基于XLM-R的多语言模型构建的多任务回归打分模型;

后处理:基于任务数据本身特性,对预测得分进行裁剪。

下面将针对部分主要优化技巧进行简要介绍。

SemEval 2022 Task8 HFL系统结构

直译数据增强配对表

3、多任务学习

如任务介绍部分所示,数据集提供了每个新闻篇章样本从Tone、Narrative等七个维度的相似性打分。尽管最终评测只针对Overall这个整体性维度,但我们认为合理地利用其它六个维度的信息将有助于提升整体性评估的效果,于是我们尝试了多种维度占比方案,发现当Overall权重提高时,模型最终性能有先提升后小幅降低的现象,最终模型选择性能达到峰值所对应的Overall权重范围。

4、Adapted R-Drop

R-Drop被证明是一种简单且有效的基于Dropout的正则化技术,为了更好地适应当前的任务,我们将其中的KL-divergence loss替换为MSE loss,并且通过超参来控制多任务回归学习损失和R-Drop损失的比例。在此基础上,我们还探索了不同forward次数对模型性能的影响。公式如下图所示:

Adapted R-Drop Loss计算公式

5、其他尝试

除了上述方法,我们还尝试了模型加大增宽、多种获取篇章向量的方案如不同层pooling、基于双塔结构的交互回归框架等,在此任务上这些方法的表现都明显逊色于我们的最终方案。

基于多组消融实验,上述提及的五种有效提升方案单独的优化能力如下表所示。

我们针对数据增强做了对照实验(+DA),基于增强集训练得到的模型在测试集上性能提升最为明显,体现了该任务中数据丰富度的重要性。

各优化方案实验结果

多语种新闻相似度评测任务最终榜单:哈工大讯飞联合实验室排名第一

在三阶段系统框架中,数据处理部分主要使用了两种数据增强的方案,模型训练部分集成了头尾拼接、多任务、Adapted R-Drop和额外线性层等所有有效方案,后处理部分主要进行了打分裁剪和模型融合等工作,最终使得系统整体性能较baseline有较为显著的提升。在多语言新闻相似度场景中,上述优化方案较为充分地挖掘了多语言预训练模型的能力,后续研究工作中,可以尝试添加各语言规则相关特征来进一步提升系统在低资源语言上的表现。

THE END
0.连夺4项第一!AI常识推理和人类又近了3%就拿下面两篇相似度极高的新闻稿件举个例子吧。 首先,参赛队伍需要将文中相似的主要元素剥离出来并逐一分析,比如地理信息、叙事技巧、实体、语气、时间及风格。并最终判断出两则新闻的相似程度,以1-4分打分。 比赛共涉及10种语言,分别为阿拉伯语、德语、英语、西班牙语、法语、意大利语、波兰语、俄语、土耳其语和中jvzq<84yyy4489iqe0ipo8hqpvkov87412:3:86613732?=5a363:@67:79/uqyon
1.意大利硕士留学的申请条件是什么2.专业课程匹配要求:所申请的硕士专业须和你的本科背景专业相关,相似度需要达到80%以上,意大利的硕士专业申请是不允许跨专业申请的。我们在申请的时候,会准备本科专业的课程描述用于申请,主要内容包括大学本科各个课程的名称,学时,学分,以及课程内容的简要概述。 jvzquC41yy}/gxq0ep5mk~}wg1wjvj4sv46359:443;72=80jvsm
2.Java代码工具之中英文语句分词腾讯云开发者社区上面有封装好的各种功能代码工具。该网站上的“语句分词及相似度对比”java代码工具可以直接使用,中文语句分词支持的分词算法包括Lucene、Ansj、corenlp、HanLP、IKAnalyzer、Jcseg、Jieba、mmseg4j、MYNLP、Word等10种;英文语句分词支持的分词算法包括IKAnalysis、StanfordNlp等两种主流算法。jvzquC41enuvf7ygpekov7hqo1jfxnqqrgx0c{ykenk04;729;;
3.TowardsDataScience博客中文翻译2020(二百五十九)结果在English onlySTS任务上,STS 是自然语言处理中句子意义相似度的竞争。越高越好。 上表显示了英语语言的基准。然而,激光嵌入不仅适用于英语,还适用于多种语言 随着NLP 的所有最新创新,特别是 BERT 和多语言 BERT (mBERT ),人们可能会认为他们会放弃激光业务。然而,有趣的是,对于纯英语句子相似性任务,RoBERTa jvzquC41dnuh0lxfp0tfv8|k|cxehxwegn5bt}neng5eg}fknu526;<433>6
4.测了词汇量之后,我决定又得回去学英文了下面是这个网站收集的2011年时候的数据,针对的是非英语母语的地区的人的平均英语词汇量。可以看到北欧那边的词汇量是最大的,可能跟他们常年的阅读习惯有关。(这里没有讨论语言结构的相似度,语言词源的相似度和历史之类的)最高的国家是丹麦,16291,相当于是英语母语水平的平均线的低位偏上。在亚洲地区里面,我选取了3jvzquC41yy}/fxzdcp4dqv4pqvk09B;;6;:56