期刊文献+
共找到169篇文章
< 1 2 9 >
每页显示 20 50 100
Multi-GPU Based Recurrent Neural Network Language Model Training
1
作者 Xiaoci Zhang Naijie Gu Hong Ye 《国际计算机前沿大会会议论文集》 2016年第1期124-126,共3页
Recurrent neural network language models (RNNLMs) have been applied in a wide range of research fields, including nature language processing and speech recognition. One challenge in training RNNLMs is the heavy comput... Recurrent neural network language models (RNNLMs) have been applied in a wide range of research fields, including nature language processing and speech recognition. One challenge in training RNNLMs is the heavy computational cost of the crucial back-propagation (BP) algorithm. This paper presents an effective approach to train recurrent neural network on multiple GPUs, where parallelized stochastic gradient descent (SGD) is applied. Results on text-based experiments show that the proposed approach achieves 3.4× speedup on 4 GPUs than the single one, without any performance loss in language model perplexity. 展开更多
关键词 RECURRENT neural network language modelS (Rnnlms)
下载PDF
Vulnerability Detection of Ethereum Smart Contract Based on SolBERT-BiGRU-Attention Hybrid Neural Model
2
作者 Guangxia Xu Lei Liu Jingnan Dong 《Computer Modeling in Engineering & Sciences》 SCIE EI 2023年第10期903-922,共20页
In recent years,with the great success of pre-trained language models,the pre-trained BERT model has been gradually applied to the field of source code understanding.However,the time cost of training a language model ... In recent years,with the great success of pre-trained language models,the pre-trained BERT model has been gradually applied to the field of source code understanding.However,the time cost of training a language model from zero is very high,and how to transfer the pre-trained language model to the field of smart contract vulnerability detection is a hot research direction at present.In this paper,we propose a hybrid model to detect common vulnerabilities in smart contracts based on a lightweight pre-trained languagemodel BERT and connected to a bidirectional gate recurrent unitmodel.The downstream neural network adopts the bidirectional gate recurrent unit neural network model with a hierarchical attention mechanism to mine more semantic features contained in the source code of smart contracts by using their characteristics.Our experiments show that our proposed hybrid neural network model SolBERT-BiGRU-Attention is fitted by a large number of data samples with smart contract vulnerabilities,and it is found that compared with the existing methods,the accuracy of our model can reach 93.85%,and the Micro-F1 Score is 94.02%. 展开更多
关键词 Smart contract pre-trained language model deep learning recurrent neural network blockchain security
下载PDF
A Survey on Chinese Sign Language Recognition:From Traditional Methods to Artificial Intelligence
3
作者 Xianwei Jiang Yanqiong Zhang +1 位作者 Juan Lei Yudong Zhang 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第7期1-40,共40页
Research on Chinese Sign Language(CSL)provides convenience and support for individuals with hearing impairments to communicate and integrate into society.This article reviews the relevant literature on Chinese Sign La... Research on Chinese Sign Language(CSL)provides convenience and support for individuals with hearing impairments to communicate and integrate into society.This article reviews the relevant literature on Chinese Sign Language Recognition(CSLR)in the past 20 years.Hidden Markov Models(HMM),Support Vector Machines(SVM),and Dynamic Time Warping(DTW)were found to be the most commonly employed technologies among traditional identificationmethods.Benefiting from the rapid development of computer vision and artificial intelligence technology,Convolutional Neural Networks(CNN),3D-CNN,YOLO,Capsule Network(CapsNet)and various deep neural networks have sprung up.Deep Neural Networks(DNNs)and their derived models are integral tomodern artificial intelligence recognitionmethods.In addition,technologies thatwerewidely used in the early days have also been integrated and applied to specific hybrid models and customized identification methods.Sign language data collection includes acquiring data from data gloves,data sensors(such as Kinect,LeapMotion,etc.),and high-definition photography.Meanwhile,facial expression recognition,complex background processing,and 3D sign language recognition have also attracted research interests among scholars.Due to the uniqueness and complexity of Chinese sign language,accuracy,robustness,real-time performance,and user independence are significant challenges for future sign language recognition research.Additionally,suitable datasets and evaluation criteria are also worth pursuing. 展开更多
关键词 Chinese Sign language Recognition deep neural networks artificial intelligence transfer learning hybrid network models
下载PDF
Donggan Speech Recognition Based on Convolution Neural Networks
4
作者 Haiyan Xu Yuren You Hongwu Yang 《国际计算机前沿大会会议论文集》 2019年第1期583-584,共2页
Donggan language, which is a special variant of Mandarin, is used by Donggan people in Central Asia. Donggan language includes Gansu dialect and Shaanxi dialect. This paper proposes a convolutional neural network (CNN... Donggan language, which is a special variant of Mandarin, is used by Donggan people in Central Asia. Donggan language includes Gansu dialect and Shaanxi dialect. This paper proposes a convolutional neural network (CNN) based Donggan language speech recognition method for the Donggan Shaanxi dialect. A text corpus and a pronunciation dictionary were designed for of Donggan Shannxi dialect and the corresponding speech corpus was recorded. Then the acoustic models of Donggan Shaanxi dialect was trained by CNN. Experimental results demonstrate that the recognition rate of proposed CNNbased method achieves lower word error rate than that of the monophonic hidden Markov model (HMM) based method, triphone HMM-based method and DNN- based method. 展开更多
关键词 Donggan language Donggan SPEECH recognition Convolutional neural network ACOUSTIC model
下载PDF
基于人工神经网络的自然语言处理技术研究 被引量:1
5
作者 陈运财 《工程技术研究》 2024年第8期93-95,共3页
文章探讨了基于人工神经网络的自然语言处理技术,首先,阐述了人工神经网络的定义、结构、工作原理,以及与深度学习的关系。其次,详细研究了基于人工神经网络的自然语言处理技术,包括神经网络模型、词嵌入技术、循环神经网络、长短期记... 文章探讨了基于人工神经网络的自然语言处理技术,首先,阐述了人工神经网络的定义、结构、工作原理,以及与深度学习的关系。其次,详细研究了基于人工神经网络的自然语言处理技术,包括神经网络模型、词嵌入技术、循环神经网络、长短期记忆网络、转换器模型与自注意力机制等,并分析了这些技术面临的挑战。最后,通过实验设计与结果分析验证了所提出方法的有效性。文章研究内容对于推动自然语言处理技术的发展和应用具有重要意义。 展开更多
关键词 自然语言处理技术 人工神经网络 循环神经网络 长短期记忆网络 转换器模型 自注意力机制
下载PDF
基于Transformer-LSTM的闽南语唇语识别
6
作者 曾蔚 罗仙仙 王鸿伟 《泉州师范学院学报》 2024年第2期10-17,共8页
针对端到端句子级闽南语唇语识别的问题,提出一种基于Transformer和长短时记忆网络(LSTM)的编解码模型.编码器采用时空卷积神经网络及Transformer编码器用于提取唇读序列时空特征,解码器采用长短时记忆网络并结合交叉注意力机制用于文... 针对端到端句子级闽南语唇语识别的问题,提出一种基于Transformer和长短时记忆网络(LSTM)的编解码模型.编码器采用时空卷积神经网络及Transformer编码器用于提取唇读序列时空特征,解码器采用长短时记忆网络并结合交叉注意力机制用于文本序列预测.最后,在自建闽南语唇语数据集上进行实验.实验结果表明:模型能有效地提高唇语识别的准确率. 展开更多
关键词 唇语识别 闽南语 TRANSFORMER 长短时记忆网络(LSTM) 用时空卷积神经网络 注意力机制 端到端模型
下载PDF
融合大模型与图神经网络的电力设备缺陷诊断
7
作者 李莉 时榕良 +1 位作者 郭旭 蒋洪鑫 《计算机科学与探索》 CSCD 北大核心 2024年第10期2643-2655,共13页
电力系统中不同装置设备的缺陷评级和分析处理常受运维人员主观性影响,导致同一缺陷文本描述出现不同的严重程度评级。专业知识的差异也导致诊断分析差异和诊断效率不同。为提升缺陷诊断的准确性和效率,提出一种基于图神经网络的缺陷文... 电力系统中不同装置设备的缺陷评级和分析处理常受运维人员主观性影响,导致同一缺陷文本描述出现不同的严重程度评级。专业知识的差异也导致诊断分析差异和诊断效率不同。为提升缺陷诊断的准确性和效率,提出一种基于图神经网络的缺陷文本评级分类方法和大模型智能诊断分析助手。构建专业词典,使用自然语言处理算法规范化文本描述。通过统计方法,优化缺陷文本的语义表示。集成图注意力神经网络和RoBERTa模型对缺陷文本进行精确评级分类。基于大语言模型Qwen1.5-14B-Chat进行低秩适配(LoRA)微调训练得到电力设备诊断大模型Qwen-ElecDiag,结合检索增强生成技术开发设备缺陷诊断助手。此外,整理提供微调电力设备诊断大模型的指令数据集。对比实验结果表明,提出的基于图神经网络的缺陷评级分类方法在准确性上较最优基准模型BERT提升近8个百分点;诊断助手的电力知识以及缺陷诊断能力得到提升。通过提高缺陷评级的准确率并提供全面专业化诊断建议,不仅提高电力设备运维的智能化水平,也为其他垂直领域的智能运维提供新的解决方案。 展开更多
关键词 电力系统 缺陷诊断 图神经网络 大语言模型 低秩适配(LoRA)微调 检索增强生成 智能运维
下载PDF
大型语言模型:原理、实现与发展 被引量:8
8
作者 舒文韬 李睿潇 +2 位作者 孙天祥 黄萱菁 邱锡鹏 《计算机研究与发展》 EI CSCD 北大核心 2024年第2期351-361,共11页
近年来,大型语言模型的出现和发展对自然语言处理和人工智能领域产生了变革性影响.随着不断增大模型参数量和训练数据量,语言模型的文本建模困惑度以可预测的形式降低,在各类自然语言处理任务上的表现也持续提升.因此,增加语言模型的参... 近年来,大型语言模型的出现和发展对自然语言处理和人工智能领域产生了变革性影响.随着不断增大模型参数量和训练数据量,语言模型的文本建模困惑度以可预测的形式降低,在各类自然语言处理任务上的表现也持续提升.因此,增加语言模型的参数和数据规模成为提升系统智能水平富有前景的途径.首先回顾了大型语言模型的基本定义,从模型表现和算力需求的角度给出了“大型”语言模型的界定标准.其次,从数据、算法、模型3个维度梳理了大型语言模型的发展历程及规律,展示了不同阶段各个维度的规模化如何推动语言模型的发展.接着,考察了大型语言模型所表现出的涌现能力,介绍了思维链、情景学习和指令遵循等关键涌现能力的相关研究和应用现状.最后,展望了大型语言模型的未来发展和技术挑战. 展开更多
关键词 自然语言处理 神经网络 大型语言模型 预训练 对齐
下载PDF
基于掩码语言模型的中文BERT攻击方法 被引量:1
9
作者 张云婷 叶麟 +2 位作者 唐浩林 张宏莉 李尚 《软件学报》 EI CSCD 北大核心 2024年第7期3392-3409,共18页
对抗文本是一种能够使深度学习分类器作出错误判断的恶意样本,敌手通过向原始文本中加入人类难以察觉的微小扰动制作出能欺骗目标模型的对抗文本.研究对抗文本生成方法,能对深度神经网络的鲁棒性进行评价,并助力于模型后续的鲁棒性提升... 对抗文本是一种能够使深度学习分类器作出错误判断的恶意样本,敌手通过向原始文本中加入人类难以察觉的微小扰动制作出能欺骗目标模型的对抗文本.研究对抗文本生成方法,能对深度神经网络的鲁棒性进行评价,并助力于模型后续的鲁棒性提升工作.当前针对中文文本设计的对抗文本生成方法中,很少有方法将鲁棒性较强的中文BERT模型作为目标模型进行攻击.面向中文文本分类任务,提出一种针对中文BERT的攻击方法Chinese BERT Tricker.该方法使用一种汉字级词语重要性打分方法——重要汉字定位法;同时基于掩码语言模型设计一种包含两类策略的适用于中文的词语级扰动方法实现对重要词语的替换.实验表明,针对文本分类任务,所提方法在两个真实数据集上均能使中文BERT模型的分类准确率大幅下降至40%以下,且其多种攻击性能明显强于其他基线方法. 展开更多
关键词 深度神经网络 对抗样本 文本对抗攻击 中文BERT 掩码语言模型
下载PDF
基于BERT和TextCNN的智能制造成熟度评估方法 被引量:1
10
作者 张淦 袁堂晓 +1 位作者 汪惠芬 柳林燕 《计算机集成制造系统》 EI CSCD 北大核心 2024年第3期852-863,共12页
随着智能制造2025目标的临近,企业为了解自身能力水平纷纷加入到智能制造成熟度评估的行列中。然而,由于智能制造成熟度评估标准的复杂性,企业缺乏其对行业水平的了解,导致企业贸然申请,浪费自身时间的同时又占用大量评估资源。鉴于此,... 随着智能制造2025目标的临近,企业为了解自身能力水平纷纷加入到智能制造成熟度评估的行列中。然而,由于智能制造成熟度评估标准的复杂性,企业缺乏其对行业水平的了解,导致企业贸然申请,浪费自身时间的同时又占用大量评估资源。鉴于此,设计了一种新的评估流程,采用文本处理算法对整个评估过程进行了重构,通过利用国标文件中智能制造成熟度评估标准,将其作为训练集,采用基于预训练语言模型与文本神经网络(BERT+TextCNN)相结合的智能评估算法代替人工评估。在真实的企业智能制造数据集上的验证表明,当BERT+TextCNN评估模型在卷积核为[2,3,4]、迭代次数为6次、学习率为3e-5时,对智能制造成熟度进行评估,准确率达到85.32%。这表明所设计的评估方法能够较准确地帮助企业完成智能制造成熟度自评估,有助于企业了解自身智能制造能力水平,制定正确的发展方向。 展开更多
关键词 智能制造成熟度模型 BERT预训练语言模型 文本卷积神经网络 评估过程重构
下载PDF
基于深度学习的文本分类研究综述 被引量:2
11
作者 汪家伟 余晓 《电子科技》 2024年第1期81-86,共6页
与传统的机器学习模型相比,深度学习模型试图模仿人的学习思路,通过计算机自动进行海量数据的特征提取工作。文本分类是自然语言处理中的一个重要应用,在文本信息处理过程中具有关键作用。过去几年,使用深度学习方法进行文本分类的研究... 与传统的机器学习模型相比,深度学习模型试图模仿人的学习思路,通过计算机自动进行海量数据的特征提取工作。文本分类是自然语言处理中的一个重要应用,在文本信息处理过程中具有关键作用。过去几年,使用深度学习方法进行文本分类的研究激增并取得了较好效果。文中简要介绍了基于传统模型的文本分类方法和基于深度学习的文本分类方法,回顾了先进文本分类方法并重点关注了其中基于深度学习的模型,对近年来用于文本分类的深度学习模型的研究进展以及成果进行介绍和总结,并对深度学习在文本分类领域的发展趋势和研究的难点进行了总结和展望。 展开更多
关键词 深度学习 自然语言处理 文本分类 机器学习 神经网络 预训练模型 注意力机制 长短期记忆网络
下载PDF
基于掩码提示与门控记忆网络校准的关系抽取方法
12
作者 魏超 陈艳平 +2 位作者 王凯 秦永彬 黄瑞章 《计算机应用》 CSCD 北大核心 2024年第6期1713-1719,共7页
针对关系抽取(RE)任务中实体关系语义挖掘困难和预测关系有偏差等问题,提出一种基于掩码提示与门控记忆网络校准(MGMNC)的RE方法。首先,利用提示中的掩码学习实体之间在预训练语言模型(PLM)语义空间中的潜在语义,通过构造掩码注意力权... 针对关系抽取(RE)任务中实体关系语义挖掘困难和预测关系有偏差等问题,提出一种基于掩码提示与门控记忆网络校准(MGMNC)的RE方法。首先,利用提示中的掩码学习实体之间在预训练语言模型(PLM)语义空间中的潜在语义,通过构造掩码注意力权重矩阵,将离散的掩码语义空间相互关联;其次,采用门控校准网络将含有实体和关系语义的掩码表示融入句子的全局语义;再次,将它们作为关系提示校准关系信息,随后将句子表示的最终表示映射至相应的关系类别;最后,通过更好地利用提示中掩码,并结合传统微调方法的学习句子全局语义的优势,充分激发PLM的潜力。实验结果表明,所提方法在SemEval(SemEval-2010 Task 8)数据集的F1值达到91.4%,相较于RELA(Relation Extraction with Label Augmentation)生成式方法提高了1.0个百分点;在SciERC(Entities, Relations, and Coreference for Scientific knowledge graph construction)和CLTC(Chinese Literature Text Corpus)数据集上的F1值分别达到91.0%和82.8%。所提方法在上述3个数据集上均明显优于对比方法,验证了所提方法的有效性。相较于基于生成式的方法,所提方法实现了更优的抽取性能。 展开更多
关键词 关系抽取 掩码 门控神经网络 预训练语言模型 提示学习
下载PDF
基于文本图神经网络的小样本文本分类技术研究
13
作者 安相成 刘保柱 甘精伟 《河北科技大学学报》 CAS 北大核心 2024年第1期52-58,共7页
为了解决文本图神经网络小样本文本分类精度较差的问题,设计了基于文本图神经网络的原型网络,采用预训练语言模型,利用文本级图神经网络为每个输入文本构建图并共享全局参数,将文本图神经网络的结果作为原型网络的输入,对未标注文本进... 为了解决文本图神经网络小样本文本分类精度较差的问题,设计了基于文本图神经网络的原型网络,采用预训练语言模型,利用文本级图神经网络为每个输入文本构建图并共享全局参数,将文本图神经网络的结果作为原型网络的输入,对未标注文本进行分类,并验证新模型在多个文本分类数据集上的有效性。实验结果表明,与需要大量标注文档的监督学习方法相比,所采用的方法未标注文本的分类精度提高了1%~3%,在多个文本分类数据集上验证了新模型性能先进,内存占用更少。研究结果可为解决小样本文本分类问题提供参考。 展开更多
关键词 自然语言处理 小样本文本分类 预训练模型 图神经网络 原型网络
下载PDF
基于ALBERT的中文简历命名实体识别
14
作者 余丹丹 黄洁 +1 位作者 党同心 张克 《计算机工程与设计》 北大核心 2024年第1期261-267,共7页
现有的电子简历实体识别方法准确率低,采用BERT预训练语言模型虽能取得较高的准确率,但BERT模型参数量过大,训练时间长,其实际应用场景受限,提出一种基于ALBERT的中文电子简历命名实体识别方法。通过轻量版ALBERT语言模型对输入文本进... 现有的电子简历实体识别方法准确率低,采用BERT预训练语言模型虽能取得较高的准确率,但BERT模型参数量过大,训练时间长,其实际应用场景受限,提出一种基于ALBERT的中文电子简历命名实体识别方法。通过轻量版ALBERT语言模型对输入文本进行词嵌入,获取动态词向量,解决一词多义的问题;使用BiLSTM获取上下文结构特征,深层次挖掘语义关系;将拼接后的向量输入到CRF层进行维特比解码,学习标签间约束关系,输出正确标签。实验结果表明,该方法在Resume电子简历数据集中取得了94.86%的F1值。 展开更多
关键词 电子简历 命名实体识别 预训练语言模型 双向长短时记忆网络 条件随机场 神经网络 深度学习
下载PDF
大语言模型的真实与虚拟 被引量:1
15
作者 陈超锐 《天府新论》 CSSCI 2024年第5期55-66,158,159,共14页
本论文旨在厘清当今商业化的大语言模型带来的真实与虚拟混淆现象。首先,从技术内部视角出发,沿着人工智能发展史溯源,明晰德雷福斯与明斯基等人的分歧。其次,从数学尤其是计算科学中的随机性问题入手,探讨在早期人工智能流派逐渐式微后... 本论文旨在厘清当今商业化的大语言模型带来的真实与虚拟混淆现象。首先,从技术内部视角出发,沿着人工智能发展史溯源,明晰德雷福斯与明斯基等人的分歧。其次,从数学尤其是计算科学中的随机性问题入手,探讨在早期人工智能流派逐渐式微后,辛顿等人的人工神经网络改良工作如何让行业重整旗鼓,同时又如何埋下了掩藏真相的隐患。再次,结合鲍德里亚对海湾战争的大众媒介批判和基特勒的软件批判,论述美国意识形态如何通过拟像构建共识,以及这种基于虚拟的权力结构在人工智能时代又是如何进一步加固自身的。而在拟像世界愈发根深蒂固、物质世界逐渐沦为幻象的今日,依然可以从媒介技术层面即编程语言史中找到一种突破虚拟交互界面的可能性,并发现从面向机器编程到面向过程与面向对象编程逻辑变化中暗含着的主体性变迁和用户层面的可操作性。最后,呼吁在人工智能的超现实未来到来之前,对当前的共识进行反思和重塑,以期使科技环境更加透明和真实。 展开更多
关键词 大语言模型 人工神经网络 媒介理论 技术哲学
下载PDF
融合事理知识的群体性事件演化预测
16
作者 张敏跃 罗蓉 胡珀 《情报杂志》 CSSCI 北大核心 2024年第11期158-164,共7页
[研究目的]当前,由社会矛盾和冲突所引发的网络群体性事件对公共安全构成了严重威胁,预测群体性事件的演化趋势对提升社会危机的防范与治理能力至关重要。[研究方法]提出了一种融合事理知识的群体性事件演化预测方法。该方法首先利用大... [研究目的]当前,由社会矛盾和冲突所引发的网络群体性事件对公共安全构成了严重威胁,预测群体性事件的演化趋势对提升社会危机的防范与治理能力至关重要。[研究方法]提出了一种融合事理知识的群体性事件演化预测方法。该方法首先利用大语言模型蕴含的丰富事件知识及模型强大的生成能力来构建初始的事理图谱,通过结合真实新闻报道来验证图谱内容;其次,将事理图谱与图神经网络模型相结合,以获得更充分的事件语义表示;最后,基于上下文事件与候选事件间的语义相似度来预测未来可能发生的事件。[研究结论]研究表明,所提方法在事件演化预测的准确性和可解释性方面均显著优于参与比较的其他方法,验证了事理知识融合对揭示群体性事件演化模式的可行性和有效性。 展开更多
关键词 群体性事件 事件预测 事理图谱 事理知识融合 大语言模型 图神经网络
下载PDF
基于RoBERTa-RCNN和注意力池化的新闻主题文本分类 被引量:1
17
作者 王乾 曾诚 +2 位作者 何鹏 张海丰 余新言 《郑州大学学报(理学版)》 CAS 北大核心 2024年第2期43-50,共8页
针对中文新闻主题因缺乏上下文信息而造成语义模糊和用词规范性不高的问题,提出一种基于RoBERTa-RCNN和多头注意力池化机制的新闻主题文本分类方法。利用数据增强技术对部分训练数据进行回译处理,再通过自编码预训练模型和RCNN对文本进... 针对中文新闻主题因缺乏上下文信息而造成语义模糊和用词规范性不高的问题,提出一种基于RoBERTa-RCNN和多头注意力池化机制的新闻主题文本分类方法。利用数据增强技术对部分训练数据进行回译处理,再通过自编码预训练模型和RCNN对文本进行初步和深度的特征提取,并结合多头注意力思想改进最大池化层。该方法采用融合机制,改善了RCNN中最大池化策略单一和无法进行动态优化的缺陷。在三个新闻主题数据集上进行实验,使用更适用于新闻主题分类的Mish函数代替ReLU函数,并利用标签平滑来解决过拟合问题。结果表明,所提方法相比传统分类方法效果突出,并通过消融实验验证了模型在分类任务上的可行性。 展开更多
关键词 预训练语言模型 文本分类 循环卷积神经网络 注意力机制 标签平滑 数据增强
下载PDF
一种生成式神经网络的道路简化方法
18
作者 罗飘 许俊奎 +2 位作者 武芳 吕亚坤 庄清文 《测绘学报》 EI CSCD 北大核心 2024年第10期2007-2020,共14页
道路数据具有数量大、变化频率高的特点,是地理空间数据的重要组成部分,道路要素化简也是地图制图综合和空间数据更新的核心技术环节之一。传统方法基于数据点压缩、弯曲识别和现有机器学习算法在道路化简中存在稳定性差、可控性弱,自... 道路数据具有数量大、变化频率高的特点,是地理空间数据的重要组成部分,道路要素化简也是地图制图综合和空间数据更新的核心技术环节之一。传统方法基于数据点压缩、弯曲识别和现有机器学习算法在道路化简中存在稳定性差、可控性弱,自动化程度低等问题,本文在视觉思维和句法模式相结合的理论基础上,利用深度学习算法的特征挖掘能力将生成式人工神经网络模型引入道路化简领域。首先,将需化简道路数据转化为序列数据,提取其序列特征,以此构造特征数据集;然后,利用门控循环单元(gated recurrent unit,GRU)神经网络构建的Seq2Seq编码模型,将大比例尺道路数据进行嵌入形成高维语义编码,通过对语义编码的解码生成化简后的小比例尺道路数据;最后,根据弧段压缩率、长度变化率、曲线折度、缓冲区限差4个指标评估模型有效性和适用性。通过试验与传统算法对比试验表明,本文模型可应用到道路形状化简中,丰富道路化简方法,促进地图制图综合智能化发展。 展开更多
关键词 生成式神经网络 道路简化 深度学习 句法模式识别 Seq2Seq编码模型 地图制图综合
下载PDF
基于大小模型协同的智能化移动网络优化研究
19
作者 黄金超 谢志普 +3 位作者 吕非彼 狄子翔 邢震 程新洲 《邮电设计技术》 2024年第9期7-12,共6页
提出了一种大小模型协同的智能化移动网络优化方法,首先利用大语言模型处理和理解网络日志、外部开源等非结构化数据,从中提取关键数据。其次构建了一个包含网络设备、参数配置、专家优化经验等多维度信息融合的知识图谱,用于分析网络... 提出了一种大小模型协同的智能化移动网络优化方法,首先利用大语言模型处理和理解网络日志、外部开源等非结构化数据,从中提取关键数据。其次构建了一个包含网络设备、参数配置、专家优化经验等多维度信息融合的知识图谱,用于分析网络状态和优化需求之间的关系。然后,通过深度学习、图神经网络等专业工具模型进行根因分析,快速定位网络故障点,并基于专业知识图谱库和大模型的问题推理能力,辅助专家给一线员工提供具体的解决方案。最后,通过实际场景的实施和验证,由专家、一线员工对所提解决方案进行评估和反馈,这些评估和反馈信息经收集后不断返回,形成循环优化。 展开更多
关键词 移动网络优化 大小模型协同 知识图谱 图神经网络模型 大语言模型
下载PDF
面向数据可视化的自然语言接口研究综述
20
作者 高帅 奚雪峰 +2 位作者 郑倩 崔志明 盛胜利 《计算机工程与应用》 CSCD 北大核心 2024年第15期24-41,共18页
数据可视化领域长期以来的目标是寻找直接从自然语言生成可视化的解决方案,而自然语言接口(NLI)的研究为该领域提供了新的解决办法。该接口接受自然语言形式的查询和表格数据集作为输入,并输出与之对应的可视化渲染。在作为一种辅助输... 数据可视化领域长期以来的目标是寻找直接从自然语言生成可视化的解决方案,而自然语言接口(NLI)的研究为该领域提供了新的解决办法。该接口接受自然语言形式的查询和表格数据集作为输入,并输出与之对应的可视化渲染。在作为一种辅助输入方式的同时,传统用户需将分析意图转化为一系列逻辑操作并与之进行交互(如编程指令或图形化界面操作方式等),与利用面向数据可视化的自然语言接口(DV-NLI)相结合,能够使用户专注于可视化任务,而无需担心如何操作可视化工具。近年来,随着大语言模型(LLM)GPT-3、GPT-4的兴起,将LLM与可视化相结合已成为研究热点。对现有的DV-NLI进行了全面的回顾,并进行了新的研究补充。按照其实现方法,将DV-NLI分为符号化NLP方法、深度学习模型方法、大语言模型方法三类,对每个分类下的相关技术进行分析论述。最后,总结并展望DV-NLI的未来工作。 展开更多
关键词 数据可视化 自然语言接口 机器学习 神经网络模型 大语言模型
下载PDF
上一页 1 2 9 下一页 到第
使用帮助 返回顶部