-
题名面向电影评论的标签方面情感联合模型
被引量:2
- 1
-
-
作者
李大宇
王佳
文治
王素格
-
机构
山西大学计算机与信息技术学院
山西大学计算智能与中文信息处理教育部重点实验室
-
出处
《计算机科学与探索》
CSCD
北大核心
2018年第2期300-307,共8页
-
基金
国家自然科学基金Nos.61573231
61632011
+6 种基金
61272095
61432011
U1435212
61672331
国家高技术研究发展计划(863计划)No.2015AA011808
山西省科技基础条件平台计划项目No.2015091001-0102
山西省回国留学人员科研项目No.2013-014~~
-
文摘
随着互联网的蓬勃发展,越来越多的人喜欢在微博和论坛上对商品进行评论,致使网络上存在着大量评论数据。为了同时挖掘评论数据中所谈论的方面以及评论者对这个方面的观点,用于指导消费者的消费和生产厂家对商品的改进,面向电影评论数据提出了一个标签方面情感联合模型。该模型可以同时挖掘出电影评论数据中所评论的方面以及对这个方面的情感,并且假设情感分布依赖于方面分布,词是采样的最小单位。通过将传统基于词典的方法和模型联合使用,在COAE2016任务2的电影评论数据集上进行测试,实验结果表明,此方法取得了较好的结果。
-
关键词
COAE2016
词典
标签方面情感联合模型
电影评论
-
Keywords
COAE2016
dictionary
labeled joint aspect sentiment model
movie reviews
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名基于自监督对比学习与方面级情感分析的联合微调模型
- 2
-
-
作者
狄广义
陈见飞
杨世军
高军
王耀坤
余本功
-
机构
国能数智科技开发(北京)有限公司
合肥工业大学管理学院
-
出处
《科学技术与工程》
北大核心
2024年第21期9033-9042,共10页
-
基金
国家自然科学基金(71671057)。
-
文摘
方面级情感分析是自然语言处理领域中一项具有挑战性的细粒度情感分析任务。以微调预训练语言模型的方式广泛应用于方面级情感分析任务,并取得了明显的效果提升。然而,现有多数研究设计的下游结构较为复杂,甚至与预训练模型部分隐藏层结构重合,从而限制了整体模型性能。由于对比学习方法有助于改善预训练语言模型在词语级别和句子级别的表示,设计了一种结合自监督对比学习与方面级情感分析的联合微调模型(self-supervised contrastive learning aspect-based sentiment analysis,SSCL-ABSA)。该模型以简洁的下游结构联合两种学习任务,实现从不同角度微调预训练基于Transformer的双向编码器(bidirectional encoder representations from Transformers,BERT)模型,有效促进了方面级情感分析效果的提升。具体地,首先在BERT编码阶段,将评论文本与方面词拼接成两个片段输入BERT编码器,得到各词特征表示。之后根据下游结构需求,对不同的词特征采用池化操作。一方面池化所有词特征用于方面级情感分析,另一方面池化两个片段的方面词特征用于自监督对比学习。最终结合两种任务以联合学习的方式微调BERT编码器。在3个公开数据集上进行实验评估,结果表明SSCL-ABSA方法优于其他同类对比方法。借助t-分布随机近邻嵌入(t-distributed stochastic neighbor embedding,t-SNE)方法,形象地可视化了SSCL-ABSA有效改善了BERT模型的实体表示效果。
-
关键词
方面级情感分析
自监督对比学习
预训练语言模型
BERT编码器
联合微调
-
Keywords
aspect-based sentiment analysis
self-supervised contrastive learning
pre-trained model
BERT encoder
joint fine-tuning
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名面向上下文注意力联合学习网络的方面级情感分类模型
被引量:11
- 3
-
-
作者
杨玉亭
冯林
代磊超
苏菡
-
机构
四川师范大学计算机科学学院
-
出处
《模式识别与人工智能》
EI
CSCD
北大核心
2020年第8期753-765,共13页
-
基金
国家自然科学基金项目(No.61876158)资助。
-
文摘
针对现有的方面级情感分类模型存在感知方面词能力较弱、泛化能力较差等问题,文中提出面向上下文注意力联合学习网络的方面级情感分类模型(CAJLN).首先,利用双向Transformer的表征编码器(BERT)模型作为编码器,将文本句子预处理成句子、句子对和方面词级输入序列,分别经过BERT单句和句子对分类模型,进行上下文、方面词级和句子对隐藏特征提取.再基于上下文和方面词级隐藏特征,建立上下文和方面词的多种注意力机制,获取方面特定的上下文感知表示.然后,对句子对隐藏特征和方面特定的上下文感知表示进行联合学习.采用Xavier正态分布对权重进行初始化,确保反向传播时参数持续更新,使CAJLN在训练过程中可以学习有用信息.在多个数据集上的仿真实验表明,CAJLN可有效提升短文本情感分类性能.
-
关键词
方面级情感分类
双向Transformer的表征编码器(BERT)模型
注意力机制
联合学习
-
Keywords
Aspect-Level Sentiment Classification
Bidirectional Encoder Representation from Transformers(BERT)Model
Attention Mechanism
Joint Learning
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-