CGED2020总结(第二篇)

CGED 2020总结 (第二篇)

注:以下内容大致提出了了各论文中采用的方法和实验结果,极其精简,了解详细,可自行查看原论文。

(2)Arabisc: Context-Sensitive Neural Spelling Checker

阿拉伯语:上下文敏感神经拼写检查器

(3)LXPER Index 2.0: Improving Text Readability Assessment Model for L2 English Students in Korea

LXPER索引2.0:提高韩国第二语言英语学习者的文本可读性评估

(4)Overview of NLPTEA-2020 Shared Task for Chinese Grammatical Error Diagnosis***

!!!!!!以下为论文中所有实验最终结果:!!!!!!!!
在这里插入图片描述下图标题如上所示(尺寸略有偏差)
CGED2020总结(第二篇)_第1张图片
CGED2020总结(第二篇)_第2张图片
CGED2020总结(第二篇)_第3张图片

(5)Combining ResNet and Transformer for Chinese Grammatical Error Diagnosis***

结合ResNet和Transformer进行中文语法错误诊断

1 对于错误检测,我们的系统建立在多层双向Transformer编码器的模型上,并将ResNet集成到编码器中,以提高性能。我们还从模型库中探索逐步集成选择,以提高单个模型的性能。
2 对于错误纠正,我们设计了两个模型,分别推荐S和M错误的纠正。
CGED2020总结(第二篇)_第4张图片

(6)Chinese Grammatical Error Diagnosis with Graph Convolution Network and Multi-task Learning

图形卷积网络和多任务学习的语法错误诊断

1 对于检测子任务,我们提出了两种基于BERT的方法:
–1)具有句法依赖树,提高模型性能;
–2)在多任务学习框架下,将序列标记和序列(seq2seq)模型相结合。
2 对于校正子任务,我们利用掩码语言模型、seq2seq模型和拼写检查模型根据检测结果生成校正。
CGED2020总结(第二篇)_第5张图片CGED2020总结(第二篇)_第6张图片
CGED2020总结(第二篇)_第7张图片

(7)Integrating BERT and Score-based Feature Gates for Chinese Grammatical Error Diagnosis

结合BERT和基于分数的特征门进行汉语语法错误诊断

总之,我们的贡献如下:我们为CGED任务提出了一种新的模型BSGED,该模型以较少的先验特征获得了更好的结果,大大减少了特征工程的工作量。
注:BSGED基于BERT模型、双向长短期存储器(BiLSTM)和条件随机场(CRF)。
我们提出了一种集成基于分数的特征的门控机制,它不仅保留了特征项之间的部分阶关系,而且大大减少了模型训练参数的数量。
通过ablation实验,我们验证了添加BiLSTM层的有效性,以进一步提高模型捕获输入序列的长期依赖关系的能力。CGED2020总结(第二篇)_第8张图片

(8)BERT Enhanced Neural Machine Translation and Sequence Tagging Model for Chinese Grammatical Error Diagnosis

中文语法错误诊断的BERT增强神经机器翻译和序列标注模型

在这项工作中,我们提出了我们的解决方案,NLPTEA2020共享任务的CGED。 本系统采用了三种模型:位置标记模型、BERT融合NMT模型和校正标记模型。 我们的混合系统在检测子任务中获得了第二高的F1分数,在校正top1子任务中获得了最高的F1分数,在校正top3子任务中获得了第二高的F1分数,这表明CGED任务可以训练的语言模型的最新进展中获益。
CGED2020总结(第二篇)_第9张图片CGED2020总结(第二篇)_第10张图片

(9)A Hybrid System for NLPTEA-2020 CGED Shared Task Chinese Grammatical Error Correction Based on Hybrid Models with Data Augmentation

NLPTEA-2020CGED共享任务的混合系统基于数据增强混合模型的中文语法纠错

我们利用一组异质模型,包括Seq2Seq、GECToR和候选生成模块来获得校正候选。 最后,在后处理阶段,将GED和GEC的结果进行融合,形成最终的输出。
CGED2020总结(第二篇)_第11张图片

(10)TMU-NLP System Using BERT-based Pre-trained Model to the NLP-TEA CGED Shared Task***

TMU-NLP系统采用基于BERT的预训练模型对NLP-TEA CGED共享任务2020进行了研究

CGED2020总结(第二篇)_第12张图片
在本研究中,我们使用Transformer作为我们的校正模型。 Transformer在机器翻译等序列转换任务中表现出优异的性能,并在最近的英语GEC研究中得到了广泛的应用。然而,基于BERT的预训练模型只使用Transformer的编码器;因此,它不能直接应用于需要编码器和解码器(如GEC)的序列到序列任务。
因此,我们用Chinese-RoBERTa-wwm-ext学习的参数初始化变压器编码器,并随机初始化解码器。 最后,我们在中国GEC数据上对这个初始化模型进行了微调,并将其作为我们的校正模型。

(11)CYUT Team Chinese Grammatical Error Diagnosis System Report in NLPTEA-2020 CGED Shared Task

CYUT团队中国语法错误诊断系统报告在NLPTEA-2020CGED共享任务

第一种是条件随机场(CRF)
第二种是BERT模型深度学习方法的结合
CGED2020总结(第二篇)_第13张图片CGED2020总结(第二篇)_第14张图片

(12)Chinese Grammatical Error Diagnosis Based on RoBERTa-BiLSTM-CRF Model

基于RoBERTa-BiLSTM-CRF模型的汉语语法错误诊断

本文提出了一个Roberta-BiLSTM-CRF模型来检测句子中的语法错误。
首先,利用RoBERTa模型获得词向量。 其次,将单词向量输入到BiLSTM层中学习上下文特征。 最后,没有手工功能的CRF层用于处理BiLSTM的输出。
根据CRF的状态转换矩阵和训练数据的相邻标签得到最优的全局序列。 在实验中,比较了RoBERTA-CRF模型和ERNIE-BILSTM-CRF模型的结果,并分析了模型参数和测试数据集的影响。
在评价结果方面,我们对RoBERTA-BiLSTM-CRF的召回评分在检测水平上排名第四。
CGED2020总结(第二篇)_第15张图片

(13)Chinese Grammatical Errors Diagnosis System Based on BERT at NLPTEA 2020 CGED Shared Task

基于NLPTEA-2020CGED共享任务BERT的汉语语法错误诊断系统

我们提出了一个混合系统,利用检测和校正阶段。 检测阶段是基于BiLSTM-CRF和BERT上下文词表示的顺序标记模型
校正阶段是基于n-gram和Seq2Seq的混合模型。

(14)Chinese Grammatical Error Detection Based on BERT Model

基于BERT模型的汉语语法错误检测

我们使用BERT预先训练的模型进行二进制分类,在FPR轨道上达到0.0391,在所有团队中排名第二。 在误差检测跟踪中,我们提交的结果的准确性、召回率和F-1分别为0.9851、0.7496和0.8514。
CGED2020总结(第二篇)_第16张图片

(15)Named-Entity Based Sentiment Analysis of Nepali News Media Texts***

尼泊尔新闻媒体文本的命名基于实体的情感分析

CGED2020总结(第二篇)_第17张图片

(16)SEMA: Text Simplifification Evaluation through Semantic Alignment

SEMA:通过语义对齐进行文本简化评估

*SEMA (text Simpli-fification Evaluation Measure through Semantic Alignment)*
提出了一种基于语义对齐的文本简化评价方法。
语义对齐包括完全对齐、部分对齐和下义词对齐。 我们的实验表明,SEMA的评价结果与汉英新闻文本简化语料库的人类评价具有很高的一致性。

(17)A Corpus Linguistic Perspective on the Appropriateness of Pop Songs for Teach ing Chinese as a Second Language

流行歌曲作为第二语言教学的适当性的语料库语言学视角

在此基础上,我们从汉字覆盖、词汇覆盖和寻址主题相似性的角度,在自然语言处理方法的帮助下,对流行歌曲作为第二语言教学(TCSL)的调查和评价

你可能感兴趣的:(自然语言处理,CGED,ACL,自然语言处理,深度学习,机器学习,pytorch,tensorflow)