期刊文献+
共找到66篇文章
< 1 2 4 >
每页显示 20 50 100
Survey of visual sentiment prediction for social media analysis 被引量:1
1
作者 Rongrong JI Donglin CAO +1 位作者 Yiyi ZHOU Fuhai CHEN 《Frontiers of Computer Science》 SCIE EI CSCD 2016年第4期602-611,共10页
Recent years have witnessed a rapid spread of multi-modality microblogs like Twitter and Sina Weibo composed of image, text and emoticon. Visual sentiment prediction of such microblog based social media has recently a... Recent years have witnessed a rapid spread of multi-modality microblogs like Twitter and Sina Weibo composed of image, text and emoticon. Visual sentiment prediction of such microblog based social media has recently attracted ever-increasing research focus with broad application prospect. In this paper, we give a systematic review of the recent advances and cutting-edge techniques for visual senti- ment analysis. To this end, in this paper we review the most recent works in this topic, in which detailed comparison as well as experimental evaluation are given over the cuttingedge methods. We further reveal and discuss the future trends and potential directions for visual sentiment prediction. 展开更多
关键词 visual sentiment analysis sentiment predication human emotion
原文传递
NLWSNet:a weakly supervised network for visual sentiment analysis in mislabeled web images
2
作者 Luo-yang XUE Qi-rong MAO +1 位作者 Xiao-hua HUANG Jie CHEN 《Frontiers of Information Technology & Electronic Engineering》 SCIE EI CSCD 2020年第9期1321-1333,共13页
Large-scale datasets are driving the rapid developments of deep convolutional neural networks for visual sentiment analysis.However,the annotation of large-scale datasets is expensive and time consuming.Instead,it ise... Large-scale datasets are driving the rapid developments of deep convolutional neural networks for visual sentiment analysis.However,the annotation of large-scale datasets is expensive and time consuming.Instead,it iseasy to obtain weakly labeled web images from the Internet.However,noisy labels st.ill lead to seriously degraded performance when we use images directly from the web for training networks.To address this drawback,we propose an end-to-end weakly supervised learning network,which is robust to mislabeled web images.Specifically,the proposed attention module automatically eliminates the distraction of those samples with incorrect labels bv reducing their attention scores in the training process.On the other hand,the special-class activation map module is designed to stimulate the network by focusing on the significant regions from the samples with correct labels in a weakly supervised learning approach.Besides the process of feature learning,applying regularization to the classifier is considered to minimize the distance of those samples within the same class and maximize the distance between different class centroids.Quantitative and qualitative evaluations on well-and mislabeled web image datasets demonstrate that the proposed algorithm outperforms the related methods. 展开更多
关键词 visual sentiment analysis Weakly supervised learning Mislabeled samples Significant sentiment regions
原文传递
Multimodal sentiment analysis for social media contents during public emergencies
3
作者 Tao Fan Hao Wang +2 位作者 Peng Wu Chen Ling Milad Taleby Ahvanooey 《Journal of Data and Information Science》 CSCD 2023年第3期61-87,共27页
Purpose:Nowadays,public opinions during public emergencies involve not only textual contents but also contain images.However,the existing works mainly focus on textual contents and they do not provide a satisfactory a... Purpose:Nowadays,public opinions during public emergencies involve not only textual contents but also contain images.However,the existing works mainly focus on textual contents and they do not provide a satisfactory accuracy of sentiment analysis,lacking the combination of multimodal contents.In this paper,we propose to combine texts and images generated in the social media to perform sentiment analysis.Design/methodology/approach:We propose a Deep Multimodal Fusion Model(DMFM),which combines textual and visual sentiment analysis.We first train word2vec model on a large-scale public emergency corpus to obtain semantic-rich word vectors as the input of textual sentiment analysis.BiLSTM is employed to generate encoded textual embeddings.To fully excavate visual information from images,a modified pretrained VGG16-based sentiment analysis network is used with the best-performed fine-tuning strategy.A multimodal fusion method is implemented to fuse textual and visual embeddings completely,producing predicted labels.Findings:We performed extensive experiments on Weibo and Twitter public emergency datasets,to evaluate the performance of our proposed model.Experimental results demonstrate that the DMFM provides higher accuracy compared with baseline models.The introduction of images can boost the performance of sentiment analysis during public emergencies.Research limitations:In the future,we will test our model in a wider dataset.We will also consider a better way to learn the multimodal fusion information.Practical implications:We build an efficient multimodal sentiment analysis model for the social media contents during public emergencies.Originality/value:We consider the images posted by online users during public emergencies on social platforms.The proposed method can present a novel scope for sentiment analysis during public emergencies and provide the decision support for the government when formulating policies in public emergencies. 展开更多
关键词 Public emergency Multimodal sentiment analysis Social platform Textual sentiment analysis visual sentiment analysis
下载PDF
Improving Targeted Multimodal Sentiment Classification with Semantic Description of Images
4
作者 Jieyu An Wan Mohd Nazmee Wan Zainon Zhang Hao 《Computers, Materials & Continua》 SCIE EI 2023年第6期5801-5815,共15页
Targeted multimodal sentiment classification(TMSC)aims to identify the sentiment polarity of a target mentioned in a multimodal post.The majority of current studies on this task focus on mapping the image and the text... Targeted multimodal sentiment classification(TMSC)aims to identify the sentiment polarity of a target mentioned in a multimodal post.The majority of current studies on this task focus on mapping the image and the text to a high-dimensional space in order to obtain and fuse implicit representations,ignoring the rich semantic information contained in the images and not taking into account the contribution of the visual modality in the multimodal fusion representation,which can potentially influence the results of TMSC tasks.This paper proposes a general model for Improving Targeted Multimodal Sentiment Classification with Semantic Description of Images(ITMSC)as a way to tackle these issues and improve the accu-racy of multimodal sentiment analysis.Specifically,the ITMSC model can automatically adjust the contribution of images in the fusion representation through the exploitation of semantic descriptions of images and text similarity relations.Further,we propose a target-based attention module to capture the target-text relevance,an image-based attention module to capture the image-text relevance,and a target-image matching module based on the former two modules to properly align the target with the image so that fine-grained semantic information can be extracted.Our experimental results demonstrate that our model achieves comparable performance with several state-of-the-art approaches on two multimodal sentiment datasets.Our findings indicate that incorporating semantic descriptions of images can enhance our understanding of multimodal content and lead to improved sentiment analysis performance. 展开更多
关键词 Targeted sentiment analysis multimodal sentiment classification visual sentiment textual sentiment social media
下载PDF
ChatGPT网络舆情特征多维度演化分析 被引量:1
5
作者 王健 杨柳 +1 位作者 李雪松 牛锐泽 《情报杂志》 CSSCI 北大核心 2024年第7期138-145,共8页
[研究目的]ChatGPT在世界范围内刷爆网络,引起全球的关注和热议。互联网上针对ChatGPT产生多种不同的声音,从广泛社会舆论视角探究ChatGPT网络舆情特征的多维度演化规律,有利于为新兴科技类产品的舆情研判和利益相关者决策提供支撑。[... [研究目的]ChatGPT在世界范围内刷爆网络,引起全球的关注和热议。互联网上针对ChatGPT产生多种不同的声音,从广泛社会舆论视角探究ChatGPT网络舆情特征的多维度演化规律,有利于为新兴科技类产品的舆情研判和利益相关者决策提供支撑。[研究方法]基于传播学视角构建了ChatGPT网络舆情特征多维度演化分析框架,以微博为数据获取平台,使用意见领袖影响力、LDA主题挖掘以及SnowNLP情感分析方法对ChatGPT网络舆情多维度特征演化展开分析。[研究结论]ChatGPT网络舆情发展分为缓慢萌发期、火爆出圈期、波动下降期以及稳定发展期四个阶段;初期意见领袖中包含科技科普博主、权威媒体以及社会公众人物,后期自媒体和名人的意见领袖作用逐渐被权威媒体和网络平台媒体所取代;热点主题数量增加,且主题不断细化和深化。公众对ChatGPT的情感以积极乐观为主。ChatGPT网络舆情的情感倾向与主题演变趋势相一致。 展开更多
关键词 ChatGPT 网络舆情 舆情演化 可视化 意见领袖 情感分析
下载PDF
基于视觉注意力的图文跨模态情感分析 被引量:1
6
作者 王法玉 郝攀征 《计算机工程与设计》 北大核心 2024年第2期601-607,共7页
针对单模态情感分析无法完全捕获情感信息的问题,提出一种图像和文本跨模态情感分析模型(BERT-VistaNet),该模型没有直接使用视觉信息作为特征,而是利用视觉信息作为对齐方式,使用注意力机制指出文本中重要的句子,得到基于视觉注意力的... 针对单模态情感分析无法完全捕获情感信息的问题,提出一种图像和文本跨模态情感分析模型(BERT-VistaNet),该模型没有直接使用视觉信息作为特征,而是利用视觉信息作为对齐方式,使用注意力机制指出文本中重要的句子,得到基于视觉注意力的文档表示。对于视觉注意力无法完全覆盖的文本内容,使用BERT模型对文本进行情感分析,得到基于文本的文档表示,将特征进行融合应用于情感分类任务。在Yelp公开餐厅数据集上,该模型相比基线模型TFN-aVGG,准确率提高了43%,相比VistaNet模型准确率提高了1.4%。 展开更多
关键词 情感分析 视觉注意力机制 跨模态 深度学习 特征融合 预训练模型 双向门控单元
下载PDF
基于抽象关系场景图的图像情感识别
7
作者 康博 钱艺 文益民 《智能系统学报》 CSCD 北大核心 2024年第2期335-343,共9页
图像情感识别是通过分析视觉刺激来预测人类情感的抽象过程。现有方法大多缺乏对对象间关系以及对象与场景间相互作用的关注,并且对象间复杂多样的关系难以得到充分利用,进而导致难以正确对图像情感进行预测。为解决上述问题,提出一种... 图像情感识别是通过分析视觉刺激来预测人类情感的抽象过程。现有方法大多缺乏对对象间关系以及对象与场景间相互作用的关注,并且对象间复杂多样的关系难以得到充分利用,进而导致难以正确对图像情感进行预测。为解决上述问题,提出一种基于抽象关系场景图的图像情感识别方法。首先,构建对象和属性检测器来提取图像中对象及其属性的特征。其次,使用对象特征推理对象间的亲密度和抽象关系特征,进而构建抽象关系场景图。再次,提出抽象关系图卷积网络来推理抽象关系场景图。最后,设计渐进式注意力机制对多个对象特征进行融合,以得到图像的整体对象特征。在FI、EmotionRoI和Twitter I公开数据集上的试验结果表明,该方法的分类准确率优于现有方法。 展开更多
关键词 图像情感识别 抽象关系 场景图 图卷积网络 注意力机制 卷积神经网络 视觉情感分析 深度学习
下载PDF
基于视觉语义与提示学习的多模态情感分析模型
8
作者 莫书渊 蒙祖强 《计算机科学》 CSCD 北大核心 2024年第9期250-257,共8页
随着深度学习技术的发展,多模态情感分析已成为研究热点之一。然而,大多数多模态情感分析模型或从不同模态中提取特征向量并简单地进行加权求和,导致数据无法准确地映射到统一的多模态向量空间中,或依赖图像描述模型将图像转化为文本,... 随着深度学习技术的发展,多模态情感分析已成为研究热点之一。然而,大多数多模态情感分析模型或从不同模态中提取特征向量并简单地进行加权求和,导致数据无法准确地映射到统一的多模态向量空间中,或依赖图像描述模型将图像转化为文本,导致提取到过多不包含情感信息的视觉语义,造成信息冗余,最终影响模型的性能。为了解决这些问题,提出了一种基于视觉语义与提示学习的多模态情感分析模型VSPL。该模型将图像转化为精确简短、蕴含情感信息的视觉语义词汇,从而缓解信息冗余的问题;并基于提示学习的方法,将得到的视觉语义词汇与针对情感分类任务而提前设计好的提示模板组合成新文本,实现模态融合,这样做既避免了由加权求和导致的特征空间映射不准确的问题,又能借助提示学习的方法激发预训练语言模型的潜在性能。对多模态情感分析任务进行了对比实验,结果表明所提模型VSPL在3个公开数据集上的性能超越了先进的基准模型。此外,还进行了消融实验、特征可视化和样例分析,验证了VSPL的有效性。 展开更多
关键词 多模态 视觉语义 提示学习 情感分析 预训练语言模型
下载PDF
融合BERT多层次特征的短视频网络舆情情感分析研究 被引量:1
9
作者 韩坤 潘宏鹏 刘忠轶 《计算机科学与探索》 CSCD 北大核心 2024年第4期1010-1020,共11页
自媒体时代与网络社交软件的广泛普及,导致短视频平台极易成为舆情事件起源和发酵的“孵化器”。分析短视频平台中的舆情评论信息,对于舆情事件的预警、处置和引导具有重要意义。鉴于此,结合BERT与TextCNN模型,提出一种融合BERT多层次... 自媒体时代与网络社交软件的广泛普及,导致短视频平台极易成为舆情事件起源和发酵的“孵化器”。分析短视频平台中的舆情评论信息,对于舆情事件的预警、处置和引导具有重要意义。鉴于此,结合BERT与TextCNN模型,提出一种融合BERT多层次特征的文本分类模型(BERT-MLFF-TextCNN),并对抖音短视频平台中的相关评论文本数据进行情感分析。首先,利用BERT预训练模型对输入文本进行编码。其次,提取各编码层中的语义特征向量进行融合。然后,融入自注意力机制突出其关键特征,从而实现特征的有效利用。最后,将所得特征序列输入TextCNN模型中进行分类。实验结果表明,与BERT-TextCNN、GloVe-TextCNN和Word2vec-TextCNN模型相比,BERT-MLFF-TextCNN模型表现更优,F1值达到了0.977。通过该模型能够有效识别短视频平台舆情的情感倾向,在此基础上利用TextRank算法进行主题挖掘,实现舆情评论情感极性的主题词可视化,为相关部门的舆情管控工作提供决策参考。 展开更多
关键词 网络舆情 情感分析 主题可视化 BERT
下载PDF
融合自监督和多层交叉注意力的多模态情感分析网络
10
作者 薛凯鹏 徐涛 廖春节 《计算机应用》 CSCD 北大核心 2024年第8期2387-2392,共6页
针对多模态情感分析任务中模态内信息不完整、模态间交互能力差和难以训练的问题,将视觉语言预训练(VLP)模型应用于多模态情感分析领域,提出一种融合自监督和多层交叉注意力的多模态情感分析网络(MSSM)。通过自监督学习强化视觉编码器模... 针对多模态情感分析任务中模态内信息不完整、模态间交互能力差和难以训练的问题,将视觉语言预训练(VLP)模型应用于多模态情感分析领域,提出一种融合自监督和多层交叉注意力的多模态情感分析网络(MSSM)。通过自监督学习强化视觉编码器模块,并加入多层交叉注意力以更好地建模文本和视觉特征,使模态内部信息更丰富完整,同时使模态间的信息交互更充分。此外,通过具有感知意识的快速、内存效率高的精确注意力FlashAttention解决Transformer中注意力计算高复杂度的问题。实验结果表明,与目前主流的基于对比文本-图像对的模型(CLIP)相比,MSSM在处理后的MVSA-S数据集上的准确率提高3.6个百分点,在MVSA-M数据集上的准确率提高2.2个百分点,验证所提网络能在降低运算成本的同时有效提高多模态信息融合的完整性。 展开更多
关键词 多模态 情感分析 自监督 注意力机制 视觉语言预训练模型
下载PDF
基于SVM和LSTM的在线剧评分析模型
11
作者 盛蒙蒙 马溯 +1 位作者 顾孟钧 沈立峰 《现代计算机》 2024年第2期60-65,共6页
海量的观影评论包含着广大观众对影视作品各方面的偏好,可以为影视剧的拍摄和宣传提供决策支持。提出影视剧在线评论分析模型:利用Python爬取传媒平台的评论信息,经过数据预处理和分词,分别采用SVM方法和LSTM方法对短评文本和长评文本... 海量的观影评论包含着广大观众对影视作品各方面的偏好,可以为影视剧的拍摄和宣传提供决策支持。提出影视剧在线评论分析模型:利用Python爬取传媒平台的评论信息,经过数据预处理和分词,分别采用SVM方法和LSTM方法对短评文本和长评文本进行情感极性分析,运用统计和可视化方法研究评论词语、语义网络关系、情感倾向演化、文本内容特征和地域热度分布。以公安剧《狂飙》为例进行实证分析,结果表明所提模型可以合理揭示总体情感热度演变规律,发现观众发表评论的内容偏好、行为规律和地域特征。 展开更多
关键词 在线评论 情感分析 文本挖掘 可视化分析
下载PDF
动态调整语义的词性加权多模态情感分析模型
12
作者 花强 陈卓 +1 位作者 张峰 董春茹 《深圳大学学报(理工版)》 CAS CSCD 北大核心 2024年第3期283-292,共10页
为更好地利用单词词性包含的语义信息和伴随单词出现时的非自然语言上下文信息,提出动态调整语义的词性加权多模态情感分析(part of speech weighted multi-modal sentiment analysis model with dynamic semantics adjustment,PW-DS)模... 为更好地利用单词词性包含的语义信息和伴随单词出现时的非自然语言上下文信息,提出动态调整语义的词性加权多模态情感分析(part of speech weighted multi-modal sentiment analysis model with dynamic semantics adjustment,PW-DS)模型.该模型以自然语言为主体,分别使用基于Transformer的双向编码器表示(bidirectional encoder representation from Transformers,BERT)模型、广义自回归预训练(generalized autoregressive pretraining for language understanding,XLNet)模型和一种鲁棒优化的BERT预训练(robustly optimized BERT pretraining approach,RoBERTa)模型为文本模态做词嵌入编码;创建动态调整语义模块将自然语言和非自然语言信息有效结合;设计词性加权模块,提取单词词性并赋权以优化情感判别.与张量融合网络和低秩多模态融合等当前先进模型的对比实验结果表明,PW-DS模型在公共数据集CMU-MOSI和CMU-MOSEI上的平均绝对误差分别达到了0.607和0.510,二分类准确率分别为89.02%和86.93%,优于对比模型.通过消融实验分析了不同模块对模型效果的影响,验证了模型的有效性. 展开更多
关键词 人工智能 多模态情感分析 动态调整语义 词性加权 多模态向量位置可视化 词性加权可视化
下载PDF
瑜伽裤图案构成要素的视觉情感探究 被引量:1
13
作者 郭嘉跃 张文倩 +1 位作者 李瀚霖 夏天生 《丝绸》 CAS CSCD 北大核心 2023年第7期107-115,共9页
瑜伽裤的图案是消费者挑选瑜伽裤时关注的重要特征,且不同设计能带给消费者不同的感性心理,但目前缺乏运用感性工学方法探究瑜伽裤图案构成要素的相关研究。为了使视觉设计更符合用户的情感偏好,本文以瑜伽裤的图案构成要素作为影响消... 瑜伽裤的图案是消费者挑选瑜伽裤时关注的重要特征,且不同设计能带给消费者不同的感性心理,但目前缺乏运用感性工学方法探究瑜伽裤图案构成要素的相关研究。为了使视觉设计更符合用户的情感偏好,本文以瑜伽裤的图案构成要素作为影响消费者视觉喜好的因素进行研究。运用感性工学的基本原理和评价方法设计调查问卷,使用Adobe Illustrator软件绘制出刺激图,对收集的数据进行均值分析、因子分析和灰色关联度分析。将感性工学方法用于瑜伽裤图案构成要素的视觉情感探究,并使用灰色关联度分析方法得出消费者最喜爱的感性因子。影响消费者情感的瑜伽裤图案构成要素的感性评价因子分别为直观因子、风格因子、气质因子,且图案的类型、位置和对称性的组合能使消费者产生不同的心理感受,能为瑜伽裤产业发展提供一定的参考。 展开更多
关键词 瑜伽裤 图案 感性工学 视觉情感 灰色关联度分析 消费者满意度
下载PDF
基于微博文本数据分析的社会群体情感可视计算方法研究 被引量:16
14
作者 刘翠娟 刘箴 +2 位作者 柴艳杰 方昊 刘良平 《北京大学学报(自然科学版)》 EI CAS CSCD 北大核心 2016年第1期178-186,共9页
针对已有的情感分析研究多侧重在情感的倾向性方面,缺乏对各类情感的详细描述,不能形象直观地反映社会群体的情感变化的问题,提出一种基于依存句法和人工标注相结合的情感分析方法。该方法采用三维立体的人脸表情进行情感分析,形象地呈... 针对已有的情感分析研究多侧重在情感的倾向性方面,缺乏对各类情感的详细描述,不能形象直观地反映社会群体的情感变化的问题,提出一种基于依存句法和人工标注相结合的情感分析方法。该方法采用三维立体的人脸表情进行情感分析,形象地呈现社会群体的情感变化。对于不同的社会事件,以可视化方式来展现不同地区微博群体的情感。实验结果表明,该模型可以有效地描述人群情感,研究结果为基于大数据的网络舆情分析提供了一种新思路。 展开更多
关键词 文本分析 微博 情感分析 可视计算
下载PDF
微博情感可视化系统 被引量:5
15
作者 杜贺 於志文 王志涛 《中国科技论文》 CAS 北大核心 2014年第10期1144-1148,共5页
为了研究微博用户表达情感的特性,从个人化的情感表达和对社会性事件的态度反映两类文本出发,分别对个人情感变化以及热点事件中的用户情绪进行分析,设计并实现了微博情感可视化系统(sentiment visualization system for microblog,SVSM... 为了研究微博用户表达情感的特性,从个人化的情感表达和对社会性事件的态度反映两类文本出发,分别对个人情感变化以及热点事件中的用户情绪进行分析,设计并实现了微博情感可视化系统(sentiment visualization system for microblog,SVSM)。个人化情感研究记录用户在时间轴上的情绪波动,并且从性别及地域属性上分析个人情感差异;热点事件情感研究监测用户情绪的群体表达,从时间、空间、热词、用户属性、事件属性以及传播特性等角度进行特性分析。 展开更多
关键词 微博情绪 可视化 情感分析 热点事件
下载PDF
基于视觉的情感分析研究综述 被引量:6
16
作者 李祖贺 樊养余 《计算机应用研究》 CSCD 北大核心 2015年第12期3521-3526,共6页
视觉情感分析的目的是使用带有主观感情色彩的方式表述图像和视频,并使计算机能够检测和表达这些信息。伴随着社会化媒体的兴盛和充沛训练数据的出现,深度学习之类的技术革命给该领域带来新的机遇和挑战。从视觉情感语义提取框架出发,... 视觉情感分析的目的是使用带有主观感情色彩的方式表述图像和视频,并使计算机能够检测和表达这些信息。伴随着社会化媒体的兴盛和充沛训练数据的出现,深度学习之类的技术革命给该领域带来新的机遇和挑战。从视觉情感语义提取框架出发,对传统视觉情感分析中视觉特征提取、情感空间建立和特征与情感的映射等关键技术进行综述;并对基于中间表达层、目标对象检测的视觉情感分析以及大数据背景下深度学习技术在该领域的应用进行论述;最后对视觉情感分析存在的问题进行总结并对未来有前景的研究方向进行展望。 展开更多
关键词 视觉情感 情感预测 深度学习 计算机视觉 社会化媒体
下载PDF
当代武术的艺术化解析 被引量:10
17
作者 马文友 邱丕相 《武汉体育学院学报》 CSSCI 北大核心 2013年第1期5-8,共4页
通过文献资料、逻辑分析和专家访谈等方法,对当下武术的艺术化现象运用辩证唯物主义的观点进行了阐述。在以"视觉文化"为主导型文化的时代,武术的艺术化应是武术发展的时代选择,是时代赋予当代人的历史使命,是中国社会处于转... 通过文献资料、逻辑分析和专家访谈等方法,对当下武术的艺术化现象运用辩证唯物主义的观点进行了阐述。在以"视觉文化"为主导型文化的时代,武术的艺术化应是武术发展的时代选择,是时代赋予当代人的历史使命,是中国社会处于转型时期武术艺术属性的凸显。同时,武术的艺术化满足了大众的审美情趣,并为其发展开拓了空间;武术艺术化也是当下人们"减压"的一种良好方式,更是和谐社会理念下武术发展的理性诉求。 展开更多
关键词 武术 艺术化 视觉文化 审美情趣
下载PDF
基于在线评论的游客情感分析模型构建 被引量:43
18
作者 涂海丽 唐晓波 《现代情报》 CSSCI 北大核心 2016年第4期70-77,共8页
在线旅游社区中的用户评论客观真实地反映了游客关于旅游景点和服务的感受,本文基于在线评论数据构建了一个游客情感分析模型。该模型首先从多个知名旅游网站的评论社区中获取关于某旅游目的地的评论文本并进行预处理,利用领域本体构建... 在线旅游社区中的用户评论客观真实地反映了游客关于旅游景点和服务的感受,本文基于在线评论数据构建了一个游客情感分析模型。该模型首先从多个知名旅游网站的评论社区中获取关于某旅游目的地的评论文本并进行预处理,利用领域本体构建方法构建旅游本体,将处理后的评论文本与旅游本体进行匹配,得出本体各属性的分类评论集,运用情感程度加权规则计算这些评论集的情感极性均值,得出游客关于旅游各要素总体情感倾向,并进行可视化分析与展示。该方法能够直观显示游客关于旅游目的地的总体情感倾向,为旅游经营者改进服务提供参考,以庐山旅游为例,验证了该模型的可行性。 展开更多
关键词 在线评论 情感分析 旅游本体 可视化 模型构建
下载PDF
基于视觉方面注意力的图像文本情感分析模型 被引量:6
19
作者 袁景凌 丁远远 +1 位作者 盛德明 李琳 《计算机科学》 CSCD 北大核心 2022年第1期219-224,共6页
社交网络已经成为人们日常生活中不可分割的一部分,对社交媒体信息进行情感分析有助于了解人们在社交网站上的观点、态度和情绪。传统情感分析主要依赖文本内容,随着智能手机的兴起,网络上的信息逐渐多样化,除了文本内容,还包括图像。... 社交网络已经成为人们日常生活中不可分割的一部分,对社交媒体信息进行情感分析有助于了解人们在社交网站上的观点、态度和情绪。传统情感分析主要依赖文本内容,随着智能手机的兴起,网络上的信息逐渐多样化,除了文本内容,还包括图像。通过研究发现,在多数情况下,图像对文本有着支持增强作用,而不独立于文本来表达情感。文中提出了一种新颖的图像文本情感分析模型(LSTM-VistaNet),具体来说,LSTM-VistaNet模型未将图像信息作为直接输入,而是利用VGG16网络提取图像特征,进一步生成视觉方面注意力,赋予文档中核心句子更高的权重,得到基于视觉方面注意力的文档表示;此外,还使用LSTM模型对文本情感进行提取,得到基于文本的文档表示。最后,将两组分类结果进行融合,以获得最终的分类标签。在Yelp餐馆评论的数据集上,所提模型在精确度上达到了62.08%,比精度较高的模型BiGRU-mVGG提高了18.92%,验证了将视觉信息作为方面注意力辅助文本进行情感分类的有效性;比VistaNet模型提高了0.32%,验证了使用LSTM模型可以有效弥补VistaNet模型中图像无法完全覆盖文本的缺陷。 展开更多
关键词 视觉方面注意力 LSTM 多模态 情感分析 社交图像
下载PDF
签到数据的热点区域时空模式与情感变化的可视化分析 被引量:5
20
作者 蔡莉 潘俊 +2 位作者 魏宝乐 周怡帆 李英姿 《小型微型计算机系统》 CSCD 北大核心 2018年第9期1889-1894,共6页
签到数据是包含经纬度位置信息和文本内容的微博数据,这些数据对于基础设施规划、土地价值评估和消费推荐都有十分重要的作用.本文提出了一种新颖的可视化交互系统CIDVis.CIDVis使用AC-DBSCAN算法对签到数据进行聚类,发现用户签到较为... 签到数据是包含经纬度位置信息和文本内容的微博数据,这些数据对于基础设施规划、土地价值评估和消费推荐都有十分重要的作用.本文提出了一种新颖的可视化交互系统CIDVis.CIDVis使用AC-DBSCAN算法对签到数据进行聚类,发现用户签到较为频繁的热点区域,并利用百度地图API动态展示这些区域的时空变化趋势,探索微博用户的签到模式.接着,利用中文分词,特征值提取等文本挖掘技术对微博内容进行情感评分,获得各个热点区域的用户情感倾向变化.同时,利用LDA模型执行隐含主题挖掘,发现微博主题的变化规律.以昆明市2015年7月-11月的新浪微博签到数据作为数据源,验证了该可视化系统的有效性.实验结果表明CIDVis系统提供多种直观、交互式的可视化组件,能帮助决策者分析微博用户的出行规律、情感变化和热点主题. 展开更多
关键词 可视化 签到数据 城市热点区域 情感分析 主题发现
下载PDF
上一页 1 2 4 下一页 到第
使用帮助 返回顶部