摘 要:传统的GRU 分类模型是一种基于LSTM 的模型变体,它在LSTM 的基础上将遗忘门和输入门合并成更新门,使得最终的模型比标准的LSTM 模型更简单。可是LSTM 和GRU 均没有体现每个隐层输出的重要程度。为了得到每个输出的重要程度,本文在GRU 的基础上加入了注意力(Attention)机制,设计了GRU-Attention 分类模型,并通过对比实验的方式说明了增加了Attention 的GRU 模型在分类效果上有了一定程度的提升。
关键词:自然语言处理;文本分类;GRU;注意力机制
中图分类号:TP183;TP391.1 文献标识码:A 文章编号:2096-4706(2019)03-0010-03
Chinese Text Classification Based on GRU-Attention
SUN Mingmin
(Yangzhou University,Yangzhou 225000,China)
Abstract:The traditional GRU classification model is a model variant based on LSTM. It combines forgetting gate and input gate into update gate on the basis of LSTM,which makes the final model simpler than the standard LSTM model. However,LSTM and GRU do not reflect the importance of each hidden layer output. In order to get the importance of each output,Attention mechanism is added to GRU,and GRU-Attention classification model is designed,and the comparison experiment shows that the GRU model with Attention improves the classification effect to a certain extent.
Keyword:natural language processing;text classification;GRU;Attention mechanism
参考文献:
[1] 相海泉. 大数据时代 [J]. 中国信息界(e 医疗),2013(5):36-37.
[2] 张磊. 文本分类及分类算法研究综述 [J]. 电脑知识与技术,2016,12(34):225-226+232.
[3] 彭健. 人工智能的关键性技术 [J]. 互联网经济,2018(12):46-51.
[4] 黄昌宁,张小凤. 自然语言处理技术的三个里程碑 [J]. 外语教学与研究,2002,34(3):180-187+239.
作者简介:孙明敏(1993.07-),男,汉族,安徽巢湖人,硕士, 研究方向:自然语言处理。