期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
高压单芯电缆同相双回输电方式与运维分析 被引量:3
1
作者 成健 胡力广 +1 位作者 罗智奕 颜子桓 《广东电力》 2017年第3期116-121,共6页
高压单芯电缆同相双回输电方式可以提高线路输送容量,但每根电缆线路电流分配不均匀限制了整体电缆回路输送更多的容量,为此分析同相2根并联线路的电路模型,计算电缆同相2根并联运行时电流分配以及感应电压,并利用实际线路的电流值验证... 高压单芯电缆同相双回输电方式可以提高线路输送容量,但每根电缆线路电流分配不均匀限制了整体电缆回路输送更多的容量,为此分析同相2根并联线路的电路模型,计算电缆同相2根并联运行时电流分配以及感应电压,并利用实际线路的电流值验证了电缆的电流分配系数和不平衡系数;然后,计算了同相双回并联电缆线路护套环流,对比同相双回电缆护套分别独立交叉互联和相联后再交叉互联,得出前者环流值小很多;最后,针对同相并联电缆的输电方式,在电缆故障抢修方面给出了建议。实际的应用验证了此输电方式的有效性。 展开更多
关键词 单芯电缆 同相双回并联 电流不平衡系数 护层环流
下载PDF
基于预训练模型的文本摘要优化 被引量:2
2
作者 黄敬轩 刘康军 +3 位作者 梁楚衡 江健武 颜子桓 田志锋 《工业控制计算机》 2021年第7期58-61,共4页
Transformers的双向编码器表示(BERT)是最新的预训练语言模型的代表之一,它成功地解决了一系列自然语言处理(NLP)任务。用于文本摘要的BERT体系结构(BERTSUM)是一个文本摘要模型,在预训练模型BERT作为编码器,使用多个"[CLS]"... Transformers的双向编码器表示(BERT)是最新的预训练语言模型的代表之一,它成功地解决了一系列自然语言处理(NLP)任务。用于文本摘要的BERT体系结构(BERTSUM)是一个文本摘要模型,在预训练模型BERT作为编码器,使用多个"[CLS]"标签、区间段标签和线性分类器、RNN分类器或Transformer作为分类器的情况下,BESTSUM在抽象和抽取摘要方面都优于其他模型。然而,当数据集太小或训练步骤太长时,BERTSUM可能会出现过拟合现象。提出了一种基于BERT的小数据集句子嵌入方法,并在损失函数中加入了余弦相似性约束来减少过拟合程度。最后在CNN/DailyMail数据集及其较小型版本上测试这些方法。实验结果表明,与BERTSUM相比,该模型提高了抽取式摘要的Recall-Oriented Understudy for Gisting Evaluation(ROUGE) F1分数,并且过拟合的程度更小。 展开更多
关键词 抽取式摘要 预训练语言模型 自然语言处理 小数据集
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部