哈工大讯飞实验室

0 / 1397

哈工大讯飞联合实验室阅读理解团队(HFL-RC)是哈工大讯飞联合实验室的初创组成团队之一,也是国际上最早参与机器阅读理解相关研究的团队之一。阅读理解团队重点研究机器阅读理解、问答系统、预训练模型等前瞻研究课题,并积极将成果进行转化,多项技术在实际的落地项目中得到成功应用。

近几年来,哈工大讯飞联合实验室阅读理解团队在国际权威比赛中屡获佳绩,其中包括:

  • 权威机器阅读理解评测SQuAD冠军
  • 权威机器阅读理解评测SQuAD 2.0冠军,并全球首次超过人类平均水平
  • SemEval 2018国际语义评测阅读理解赛道冠军
  • 对话型阅读理解评测QuAC冠军
  • 对话型阅读理解评测CoQA冠军
  • 多步推理阅读理解评测HotpotQA冠军
  • 权威通用自然语言理解评测GLUE冠军
  • ……

哈工大讯飞联合实验室阅读理解团队不仅在国际比赛中拔得头筹,近几年已申请发明专利20余项,获5项专利授权。在自然语言处理领域高水平国际会议上发表近20篇学术论文,其中包括ACL、EMNLP、NAACL、COLING、AAAI等,并发表多篇高引用论文。

  • [Cui et al., ACL 2017] Attention-over-Attention Neural Networks for Reading Comprehension (引用340次)
  • [Cui et al., 2019] Pre-training with Whole Word Masking for Chinese BERT (引用161次)
  • [Cui et al., COLING 2016] Consensus Attention-based Neural Networks for Chinese Reading Comprehension (引用73次)
  • ……

哈工大讯飞联合实验室阅读理解团队积极关注并推动中文信息处理技术的研究与发展。在2017年,与中国中文信息学会共同举办了“讯飞杯”中文机器阅读理解系列评测(CMRC 2017、CMRC 2018、CMRC 2019)。在2019年,率先推出中文预训练系列模型并积极开源相关模型,其中囊括了BERT、XLNet、RoBERTa、ELECTRA等主流预训练模型,并创新地提出了MacBERT预训练模型,在多个中文任务上获得了显著性能提升。目前,相关开源资源已在GitHub平台上获得近一万个Star,是目前最受欢迎的中文预训练资源之一。