摘要
长短期记忆单元LSTM是一种时间递归网络,在翻译语言、控制机器人以及语音识别等方面都取得了不错的效果。但是由于普通的LSTM只有一扇输入门,只能接收一种数据,因此普通的LSTM并不能准确处理像微表情这样人们刻意隐藏的信息。针对这一缺陷,本文基于普通的LSTM提出了双门的LSTM模型,双门的LSTM模型与普通LSTM最大的不同就是拥有两个输入门和两个遗忘门,以便于同时接收处理两种数据,可以对微表情与肢体语言同时进行分析。因此运用双门LSTM模型我们便可以更加准确地对微表情片段进行情感分析。实验还证明多隐含层的双门LSTM模型将更有利于减小误差。
出处
《电子世界》
2018年第17期16-17,20,共3页
Electronics World