期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
顾及路网约束的深度地图匹配方法
1
作者 钟青岑 吴晨昊 +1 位作者 向隆刚 姚鹏 《测绘通报》 CSCD 北大核心 2024年第6期96-102,133,共8页
在低频或非均匀采样条件下,已有的地图匹配算法存在匹配精度不高或效率较低的问题。本文提出了一种顾及路网约束的深度地图匹配方法(RNCMM)。该方法首先利用Seq2Seq框架将低频轨迹点序列端到端地映射为高频路段序列;其次根据道路与轨迹... 在低频或非均匀采样条件下,已有的地图匹配算法存在匹配精度不高或效率较低的问题。本文提出了一种顾及路网约束的深度地图匹配方法(RNCMM)。该方法首先利用Seq2Seq框架将低频轨迹点序列端到端地映射为高频路段序列;其次根据道路与轨迹点间的距离、方位差构建细粒度约束掩模层,有利于缓解轨迹网格表示的局限性,提高匹配精度;然后引入注意力机制和多任务学习机制,挖掘轨迹点间的时空关联性,并进行路段与方向的联合预测;最后在Porto出租车轨迹数据集和OSM路网上进行试验。结果表明,相较于传统的隐马尔可夫模型(HMM)算法,本文方法可以有效地提高低频浮动车轨迹的匹配精确度和效率。 展开更多
关键词 地图匹配 深度学习 序列到序列模型 GRU 多任务学习 注意力机制
下载PDF
注意负荷对内隐序列学习的影响研究 被引量:4
2
作者 葛操 白学军 沈德立 《心理科学》 CSSCI CSCD 北大核心 2007年第5期1029-1032,1051,共5页
运用次级任务研究范式,采用符号计数的次级任务和歧义序列中的次级条件序列,将内隐序列学习分为单任务组和双任务组,统一在单任务条件下测试。结果发现:(1)两组被试内隐学习成绩差异不显著;(2)双任务组被试在学习组块和测试组块的内隐... 运用次级任务研究范式,采用符号计数的次级任务和歧义序列中的次级条件序列,将内隐序列学习分为单任务组和双任务组,统一在单任务条件下测试。结果发现:(1)两组被试内隐学习成绩差异不显著;(2)双任务组被试在学习组块和测试组块的内隐学习差异也不显著。结果进一步支持了在次级任务占用注意资源的条件下内隐学习仍然可以正常地获得、内隐序列学习不受注意负荷影响的观点。 展开更多
关键词 注意负荷 内隐序列学习 次级条件序列 次级任务
下载PDF
第二任务对内隐序列学习的影响 被引量:7
3
作者 付秋芳 傅小兰 《心理科学》 CSSCI CSCD 北大核心 2010年第4期861-864,共4页
以位置序列为材料,考察注意资源在内隐序列学习中的作用。结果发现:(1)在单任务、有噪音、双任务三种实验条件下,被试均可以获得有关样例和规则的序列知识;(2)在单任务条件下,被试能够控制知识的表达,表现出一定的意识知识;而在双任务... 以位置序列为材料,考察注意资源在内隐序列学习中的作用。结果发现:(1)在单任务、有噪音、双任务三种实验条件下,被试均可以获得有关样例和规则的序列知识;(2)在单任务条件下,被试能够控制知识的表达,表现出一定的意识知识;而在双任务或有噪音条件下,被试获得的知识是无意识的。表明注意资源影响意识知识的获得,但并不一定会影响无意识知识的获得和表达。 展开更多
关键词 第二任务 序列学习 内隐学习
下载PDF
中小学生内隐序列学习的机制(英文) 被引量:1
4
作者 丁锦红 袁汝兵 +1 位作者 郭春彦 田学红 《心理学报》 CSSCI CSCD 北大核心 2004年第4期476-481,共6页
内隐序列学习是内隐学习的一种重要形式。该文探讨了中小学生内隐序列学习的心理机制及次级任务影响内隐序列学习的实质。结果表明 ,中小学生对不同结构序列的内隐学习是由一个单一的学习机制完成的 ,学习的过程即是形成序列内相邻元素... 内隐序列学习是内隐学习的一种重要形式。该文探讨了中小学生内隐序列学习的心理机制及次级任务影响内隐序列学习的实质。结果表明 ,中小学生对不同结构序列的内隐学习是由一个单一的学习机制完成的 ,学习的过程即是形成序列内相邻元素间联合的过程 ;另外 ,注意能量并不是内隐序列学习的重要影响因素 ,次级任务影响内隐序列学习并不是因为其分散了注意能量 。 展开更多
关键词 内隐序列学习 次级任务 心理机制 注意
下载PDF
基于多任务深度学习的关键词生成方法
5
作者 朱浩翔 张宇翔 《计算机工程与设计》 北大核心 2022年第6期1665-1670,共6页
针对现有的关键词生成模型往往不能充分利用题目与关键词之间密切的关系预测关键词的问题,提出一种基于序列到序列的多任务注意力联合训练模型(Joint-MT)。将关键词生成任务作为主要任务,题目生成作为辅助任务;在目标函数上,除独立的多... 针对现有的关键词生成模型往往不能充分利用题目与关键词之间密切的关系预测关键词的问题,提出一种基于序列到序列的多任务注意力联合训练模型(Joint-MT)。将关键词生成任务作为主要任务,题目生成作为辅助任务;在目标函数上,除独立的多任务交叉熵损失,还添加一致性损失,加强多任务注意力机制之间的约束。实验结果表明,Joint-MT无论是在文内关键词预测还是在缺失关键词预测上都优于其它对比模型,说明Joint-MT模型能够增强任务之间的相互关系,提升关键词预测的效果。 展开更多
关键词 生成 深度学习 自然语言处理 注意力机制 多任务学习 循环神经网络 序列到序列模型 一致性学习
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部