针对高压直流(high voltage direct current,HVDC)输电线路故障暂态行波具有时序性和强非线性的特点,导致高过渡电阻情况下故障识别率低的问题,提出基于卷积神经网络(convolutional neural networks,CNN)和双向循环门单元(bidirectional...针对高压直流(high voltage direct current,HVDC)输电线路故障暂态行波具有时序性和强非线性的特点,导致高过渡电阻情况下故障识别率低的问题,提出基于卷积神经网络(convolutional neural networks,CNN)和双向循环门单元(bidirectional gate recurrent unit,BiGRU)的HVDC输电线路故障识别方法。首先,采用故障后整流侧的双极暂态电流行波作为特征向量,利用CNN提取全局特征,并从中剔除噪声和不稳定成分,完成对数据的降维处理。然后,采用BiGRU来捕获CNN提取到特征的前后时间信息,进一步提取数据中的时序特征,以实现HVDC输电线路故障识别。仿真结果表明:该方法可在不同故障地点以及不同过渡电阻下对单极接地、双极短路、雷击故障、雷击干扰共四种故障实现准确识别,可靠性高,具有较强的耐受过渡电阻能力,同时具备一定的抗噪性能。展开更多
文本情感分类的核心问题是如何有效地表示文本的情感语义,然而,目前的大多数方法只考虑到了文本内容中的情感语义,忽略了与文本内容相关的用户信息以及文本内容所描述的产品信息。已有的包含用户和产品信息方法也存在着以下两个问题:(1...文本情感分类的核心问题是如何有效地表示文本的情感语义,然而,目前的大多数方法只考虑到了文本内容中的情感语义,忽略了与文本内容相关的用户信息以及文本内容所描述的产品信息。已有的包含用户和产品信息方法也存在着以下两个问题:(1)不能有效地表示用户和产品信息,而且模型复杂度过高导致训练速度满。(2)文本情感语义表示模型过于简单,不能有效地表示文本中的上下文语义信息。针对以上两个问题,提出了相应的解决方案:(1)针对用户和产品的评价数据,利用奇异值分解(Singular Value Decomposition,SVD)的方法得到用户和产品的语义准确的先验信息,同时避免了用户和产品信息等相关参数的训练,缓解了模型复杂度高的问题。(2)利用双向的门循环单元(GRU)模型代替原有的简单模型,更加有效地结合了文本中的上下文语义信息。实验结果表明:相比传统的文本分类方法,提出的方法有更好的分类效果,在部分实验数据中达到了最好的分类准确度。同时模型的训练速度也得到了提升。展开更多
针对预训练模型BRET所面临的模型复杂、参数规模大带来的训练难度提升问题,提出一种基于ALBERT(A Little BERT)的情感分析模型ALBERT-BiGRU-attention-CRF。在online_shopping_10_cats网络购物评论数据集上取得了93.58%的F1值,同传统BiG...针对预训练模型BRET所面临的模型复杂、参数规模大带来的训练难度提升问题,提出一种基于ALBERT(A Little BERT)的情感分析模型ALBERT-BiGRU-attention-CRF。在online_shopping_10_cats网络购物评论数据集上取得了93.58%的F1值,同传统BiGRU-CRF等情感分析模型相比均有所提升,同BERT模型相比在P值上提升0.61%,且缩短将近一半运行速度时间。实验结果最终表明该模型在缩减模型参数需求,增加运行效率的同时能有效保留类似BERT模型的模型表现。展开更多
文摘针对高压直流(high voltage direct current,HVDC)输电线路故障暂态行波具有时序性和强非线性的特点,导致高过渡电阻情况下故障识别率低的问题,提出基于卷积神经网络(convolutional neural networks,CNN)和双向循环门单元(bidirectional gate recurrent unit,BiGRU)的HVDC输电线路故障识别方法。首先,采用故障后整流侧的双极暂态电流行波作为特征向量,利用CNN提取全局特征,并从中剔除噪声和不稳定成分,完成对数据的降维处理。然后,采用BiGRU来捕获CNN提取到特征的前后时间信息,进一步提取数据中的时序特征,以实现HVDC输电线路故障识别。仿真结果表明:该方法可在不同故障地点以及不同过渡电阻下对单极接地、双极短路、雷击故障、雷击干扰共四种故障实现准确识别,可靠性高,具有较强的耐受过渡电阻能力,同时具备一定的抗噪性能。
文摘文本情感分类的核心问题是如何有效地表示文本的情感语义,然而,目前的大多数方法只考虑到了文本内容中的情感语义,忽略了与文本内容相关的用户信息以及文本内容所描述的产品信息。已有的包含用户和产品信息方法也存在着以下两个问题:(1)不能有效地表示用户和产品信息,而且模型复杂度过高导致训练速度满。(2)文本情感语义表示模型过于简单,不能有效地表示文本中的上下文语义信息。针对以上两个问题,提出了相应的解决方案:(1)针对用户和产品的评价数据,利用奇异值分解(Singular Value Decomposition,SVD)的方法得到用户和产品的语义准确的先验信息,同时避免了用户和产品信息等相关参数的训练,缓解了模型复杂度高的问题。(2)利用双向的门循环单元(GRU)模型代替原有的简单模型,更加有效地结合了文本中的上下文语义信息。实验结果表明:相比传统的文本分类方法,提出的方法有更好的分类效果,在部分实验数据中达到了最好的分类准确度。同时模型的训练速度也得到了提升。
文摘针对预训练模型BRET所面临的模型复杂、参数规模大带来的训练难度提升问题,提出一种基于ALBERT(A Little BERT)的情感分析模型ALBERT-BiGRU-attention-CRF。在online_shopping_10_cats网络购物评论数据集上取得了93.58%的F1值,同传统BiGRU-CRF等情感分析模型相比均有所提升,同BERT模型相比在P值上提升0.61%,且缩短将近一半运行速度时间。实验结果最终表明该模型在缩减模型参数需求,增加运行效率的同时能有效保留类似BERT模型的模型表现。