《计算机应用研究》|Application Research of Computers

基于动态掩蔽注意力机制的事件抽取

Event extraction based on dynamic masked attention

免费全文下载 (已被下载 次)  
获取PDF全文
作者 黄细凤
机构 中国电子科技集团公司第十研究所,成都 610036
统计 摘要被查看 次,已被下载
文章编号 1001-3695(2020)07-009-1964-05
DOI 10.19734/j.issn.1001-3695.2018.12.0927
摘要 事件抽取(event extraction)是自然语言处理(natural language processing,NLP)中的一个重要且有挑战性的任务,以完成从文本中识别出事件触发词(trigger)以及触发词对应的要素(argument)。对于一个句子中有多个事件的多事件抽取任务,提出了一种注意力机制的变种——动态掩蔽注意力机制(dynamic masked attention network,DyMAN),与常规注意力机制相比,动态掩蔽注意力机制能够捕捉更丰富的上下文表示并保留更有价值的信息。在ACE 2005数据集上进行的实验中,对于多事件抽取任务,与之前最好的模型JRNN相比,DyMAN模型在触发词分类任务上取得了9.8%的提升,在要素分类任务上取得了4.5%的提升,表明基于DyMAN的事件抽取模型在多事件抽取上能够实现领先的效果。
关键词 事件抽取; 注意力机制; 多事件抽取; 动态掩蔽注意力
基金项目 国家重点研发计划重点专项项目(2017YFB1002104)
国家自然科学基金面上项目(61672162)
本文URL http://www.arocmag.com/article/01-2020-07-009.html
英文标题 Event extraction based on dynamic masked attention
作者英文名 Huang Xifeng
机构英文名 The 10th Research Institute of China Electronics Technology Group Corporation,Chengdu 610036,China
英文摘要 Event extraction is an important and challenging task in NLP, completing the identification of event triggers and their arguments from the text. For multiple-event extraction tasks with multiple events in a sentence, this paper proposed a model based on a variant of attention mechanism called DyMAN, which could capture richer context representation and keep more valuable information than the normal attention. The experiments demonstrate that the proposed model can achieve state-of-the-art performance on the ACE 2005 corpus. Compared with the previous best model named JRNN, the DyMAN model achieved a 9.8% improvement in trigger word classification tasks, and a 4.5% improvement in factor classification tasks.
英文关键词 event extraction; attention mechanism; multiple-event extraction; dynamic masked attention
参考文献 查看稿件参考文献
 
收稿日期 2018/12/5
修回日期 2019/3/19
页码 1964-1968
中图分类号 TP306.1
文献标志码 A