咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于高层语义注意力机制的中文实体关系抽取 收藏

基于高层语义注意力机制的中文实体关系抽取

High-level Semantic Attention-based Convolutional Neural Networks for Chinese Relation Extraction

作     者:武文雅 陈钰枫 徐金安 张玉洁 WU Wenya;CHEN Yufeng;XU Jin’an;ZHANG Yujie

作者机构:北京交通大学计算机与信息技术学院北京100044 

出 版 物:《广西师范大学学报(自然科学版)》 (Journal of Guangxi Normal University:Natural Science Edition)

年 卷 期:2019年第37卷第1期

页      面:32-41页

学科分类:081203[工学-计算机应用技术] 08[工学] 0835[工学-软件工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:国家自然科学基金(61473294 61370130) 北京市自然基金(4172047) 中央高校基本科研业务费专项资金(2015JBM033) 

主  题:关系抽取 卷积神经网络 注意力机制 数据增广 依存句法约束 

摘      要:实体关系抽取在挖掘结构化事实的信息抽取系统中扮演着重要的角色。近年来,深度学习在关系抽取任务中取得了显著的成果,同时,注意力机制也逐步地融入到神经网络中,进一步提高了关系抽取的性能。但是,目前的注意力机制主要关注一些低层次的特征,比如词汇等。本文提出一种基于高层语义注意力机制的分段卷积神经网络模型(PCNN_HSATT,high-level semantic attention-based piecewise convolutional neural networks),该模型将注意力机制设置在分段最大池化层后,动态地关注了高层次的语义信息。除此之外,由于中文实体关系语料稀疏性较大,本文利用同义词词林对COAE2016语料进行增强以扩大数据规模。最后在COAE2016和ACE2005的中文语料上进行实验,F1值分别达到了78.41%和73.94%,与效果最好的SVM方法相比分别提高了10.45%和0.67%,这充分证明了PCNN_HSATT模型在中文关系抽取上的有效性。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分