期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
融合卷积收缩门控的生成式文本摘要方法
1
作者 甘陈敏 唐宏 +2 位作者 杨浩澜 刘小洁 刘杰 《计算机工程》 CAS CSCD 北大核心 2024年第2期98-104,共7页
在深度学习技术的推动下,基于编码器-解码器架构并结合注意力机制的序列到序列模型成为文本摘要研究中应用最广泛的模型之一,尤其在生成式文本摘要任务中取得显著效果。然而,现有的采用循环神经网络的模型存在并行能力不足和时效低下的... 在深度学习技术的推动下,基于编码器-解码器架构并结合注意力机制的序列到序列模型成为文本摘要研究中应用最广泛的模型之一,尤其在生成式文本摘要任务中取得显著效果。然而,现有的采用循环神经网络的模型存在并行能力不足和时效低下的局限性,无法充分概括有用信息,忽视单词与句子间的联系,易产生冗余重复或语义不相关的摘要。为此,提出一种基于Transformer和卷积收缩门控的文本摘要方法。利用BERT作为编码器,提取不同层次的文本表征得到上下文编码,采用卷积收缩门控单元调整编码权重,强化全局相关性,去除无用信息的干扰,过滤后得到最终的编码输出,并通过设计基础Transformer解码模块、共享编码器的解码模块和采用生成式预训练Transformer(GPT)的解码模块3种不同的解码器,加强编码器与解码器的关联,以此探索能生成高质量摘要的模型结构。在LCSTS和CNNDM数据集上的实验结果表明,相比主流基准模型,设计的TCSG、ES-TCSG和GPT-TCSG模型的评价分数增量均不低于1.0,验证了该方法的有效性和可行性。 展开更多
关键词 生成式文本摘要 序列到序列模型 Transformer模型 BERT编码器 卷积收缩门控单元 解码器
下载PDF
A spatiotemporal deep learning method for excavation-induced wall deflections 被引量:1
2
作者 Yuanqin Tao Shaoxiang Zeng +3 位作者 Honglei Sun Yuanqiang Cai Jinzhang Zhang Xiaodong Pan 《Journal of Rock Mechanics and Geotechnical Engineering》 SCIE CSCD 2024年第8期3327-3338,共12页
Data-driven approaches such as neural networks are increasingly used for deep excavations due to the growing amount of available monitoring data in practical projects.However,most neural network models only use the da... Data-driven approaches such as neural networks are increasingly used for deep excavations due to the growing amount of available monitoring data in practical projects.However,most neural network models only use the data from a single monitoring point and neglect the spatial relationships between multiple monitoring points.Besides,most models lack flexibility in providing predictions for multiple days after monitoring activity.This study proposes a sequence-to-sequence(seq2seq)two-dimensional(2D)convolutional long short-term memory neural network(S2SCL2D)for predicting the spatiotemporal wall deflections induced by deep excavations.The model utilizes the data from all monitoring points on the entire wall and extracts spatiotemporal features from data by combining the 2D convolutional layers and long short-term memory(LSTM)layers.The S2SCL2D model achieves a long-term prediction of wall deflections through a recursive seq2seq structure.The excavation depth,which has a significant impact on wall deflections,is also considered using a feature fusion method.An excavation project in Hangzhou,China,is used to illustrate the proposed model.The results demonstrate that the S2SCL2D model has superior prediction accuracy and robustness than that of the LSTM and S2SCL1D(one-dimensional)models.The prediction model demonstrates a strong generalizability when applied to an adjacent excavation.Based on the long-term prediction results,practitioners can plan and allocate resources in advance to address the potential engineering issues. 展开更多
关键词 Braced excavation Wall deflections Deep learning Convolutional layer Long short-term memory(LSTM) sequence to sequence(seq2seq)
下载PDF
基于单细胞RNA测序解析人与小鼠睾丸中SARS-CoV-2相关受体的时空表达特征
3
作者 罗嘉强 赵亮宇 +7 位作者 姚晨成 朱子珏 邢晓宇 李朋 田汝辉 陈慧兴 孙杰 李铮 《上海交通大学学报(医学版)》 CAS CSCD 北大核心 2021年第4期421-426,共6页
目的·基于单细胞RNA测序(single-cell RNA sequencing,scRNA-Seq),分析严重急性呼吸综合征冠状病毒2(severe acute respiratory syndrome coronavirus 2,SARS-CoV-2)受体血管紧张素转化酶2(angiotensin-converting enzyme 2,ACE2)... 目的·基于单细胞RNA测序(single-cell RNA sequencing,scRNA-Seq),分析严重急性呼吸综合征冠状病毒2(severe acute respiratory syndrome coronavirus 2,SARS-CoV-2)受体血管紧张素转化酶2(angiotensin-converting enzyme 2,ACE2)在人和小鼠睾丸中的时空表达特征。方法·收集生理性各发育阶段的人睾丸组织10例和C57BL/6小鼠睾丸组织9例,用酶消化成单细胞悬液后经scRNA-Seq标准处理程序得到细胞-基因表达矩阵。经过质量控制、数据标准化、批次效应处理和聚类降维后,利用已知的睾丸细胞标志物注释各群细胞,以明确在发育的不同阶段中人和小鼠睾丸中ACE2表达模式和差异。结果·鉴定出人和小鼠均有的睾丸细胞亚群9个,包括3群生殖细胞(精原细胞、精母细胞和精子细胞/精子)和6群体细胞(Sertoli细胞、巨噬细胞、血管平滑肌细胞、内皮细胞、Leydig细胞和管周肌样细胞)。从空间分布来看,在成人睾丸中,ACE2主要表达于Sertoli细胞,在Leydig细胞、管周肌样细胞和生殖细胞也有表达。从时间尺度上看,人Sertoli细胞的ACE2转录丰度随着睾丸的发育而增加,青春期后Sertoli细胞中ACE2表达显著高于幼儿期和儿童期(P=0.000)。从小鼠睾丸发育各阶段来看,Ace2表达模式与人体均有显著不同。在5周龄成年C57BL/6小鼠睾丸中,Ace2的转录水平低且主要表达于血管平滑肌细胞(P=0.000),而Sertoli细胞中Ace2阳性细胞数则极少。结论·SARS-CoV-2可能主要通过Sertoli细胞感染人类睾丸,常规C57BL/6小鼠模型不适用于模拟SARS-CoV-2感染对人类睾丸的功能影响。 展开更多
关键词 严重急性呼吸综合征冠状病毒2 单细胞RNA测序 血管紧张素转化酶2 病毒性睾丸炎 SERTOLI细胞
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部