期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
狭窄空间的位姿辅助点TEB无人车导航方法 被引量:2
1
作者 栾添添 王皓 +1 位作者 尤波 孙明晓 《仪器仪表学报》 EI CAS CSCD 北大核心 2023年第4期121-128,共8页
针对无人车在狭窄空间环境中采用传统时间弹性带(TEB)算法通过率低下以及速度突变的问题,提出一种位姿辅助点TEB算法(PAP-TEB)。通过在狭窄空间两侧添加位姿辅助点,调用定点规划算法,提高狭窄空间环境的通过率;其次,利用速度插补控制和... 针对无人车在狭窄空间环境中采用传统时间弹性带(TEB)算法通过率低下以及速度突变的问题,提出一种位姿辅助点TEB算法(PAP-TEB)。通过在狭窄空间两侧添加位姿辅助点,调用定点规划算法,提高狭窄空间环境的通过率;其次,利用速度插补控制和S形速度规划分别优化自主导航和定点导航的输出速度,保证输出曲线的平滑和导航过程的稳定性;最后,通过无人车操作系统的对比仿真测试,以及两轮差速无人车实验对PAP-TEB算法进行性能验证。结果表明,在55 cm的狭窄通道场景下,PAP-TEB算法的通过率提升约50%;在穿门实验中,PAP-TEB算法相较于传统TEB算法的通过率提升超过20%,并且宽度越小,提升效果越明显,且无人车速度曲线波动较小,能够实现无人车的平稳运动。 展开更多
关键词 狭窄空间环境 姿辅助 TEB算法 导航 速度优化
下载PDF
基于旋转投影二进制描述符的空间目标位姿估计 被引量:7
2
作者 邹瑜 梁斌 +2 位作者 王学谦 张涛 宋靖雁 《光学精密工程》 EI CAS CSCD 北大核心 2017年第11期2958-2967,共10页
为了实现基于点云的空间目标相对位姿快速估计,提出一种旋转投影二进制描述符(BRoPH)。该描述符首先建立特征点处的局部参考坐标系,然后通过旋转投影局部点云生成不同视角下的密度图像块和深度图像块,最后根据图像块生成特征点的多尺度... 为了实现基于点云的空间目标相对位姿快速估计,提出一种旋转投影二进制描述符(BRoPH)。该描述符首先建立特征点处的局部参考坐标系,然后通过旋转投影局部点云生成不同视角下的密度图像块和深度图像块,最后根据图像块生成特征点的多尺度二进制字符串。针对位姿估计对实时性的要求,在分析BRoPH Hamming距离分布的基础上,提出了基于Hamming距离阈值的特征匹配策略,用于剔除潜在的错误配对,加快位姿估计收敛速度。最后,在基于局部特征描述符位姿估计框架下分别与SHOT描述符和FPFH描述符进行了比较。结果表明:BRoPH描述符在仅需要SHOT和FPFH平均内存1/80的基础上,得到了远高于SHOT和FPFH的平均位姿估计精度,其平均姿态误差小于0.1°,平均位置误差小于1/180 R。此外,基于Hamming距离阈值的特征匹配策略使得BRoPH的位姿粗估计速度加快了7倍,总体位姿估计频率超过7Hz,比SHOT和FPFH分别快3~6.8倍。该方法具有占用内存小、计算速度快、位姿估计精度高和抗干扰能力强等优点,满足基于点云的空间目标位姿估计实时性要求。 展开更多
关键词 空间目标 姿估计 云配准 旋转投影直方图 二进制描述符
下载PDF
基于图优化的移动机器人视觉SLAM 被引量:13
3
作者 张毅 沙建松 《智能系统学报》 CSCD 北大核心 2018年第2期290-295,共6页
针对目前移动机器人视觉SLAM(simultaneous localization and mapping)研究中存在的实时性差、精确度不高、无法稠密化建图等问题,提出了一种基于RGB-D数据的实时SLAM算法。在本算法前端处理中,采用了鲁棒性与实时性更好的ORB特征检测... 针对目前移动机器人视觉SLAM(simultaneous localization and mapping)研究中存在的实时性差、精确度不高、无法稠密化建图等问题,提出了一种基于RGB-D数据的实时SLAM算法。在本算法前端处理中,采用了鲁棒性与实时性更好的ORB特征检测。利用RANSAC算法对可能存在的误匹配点进行剔除完成初始匹配,对所得内点进行PNP求解,用于机器人相邻位姿的增量估计。在后端优化中,设计了一种遵循图优化思想的非线性优化方法对移动机器人位姿进行优化。同时结合闭环检测机制,提出了一种点云优化算法,用于抑制系统的累积误差,进一步提升位姿与点云的精确性。实验验证了本文所提方法能够迅速、准确地重构出稠密化的三维环境模型。 展开更多
关键词 RGB-D 移动机器人 图优化 同时定与地图构建 姿云优化
下载PDF
面向全自主智能机器人的无标定图像视觉伺服控制研究
4
作者 胡茂伟 《计算机测量与控制》 2024年第7期169-175,共7页
在利用全自主智能机器人检测、搬运目标物的过程中,为了提高主机元件对机器人的伺服控制效果,设计了一种无标定图像视觉伺服控制方法;首先,根据机器人轨迹的无标定估计结果,计量目标物的位姿点,推导出机器人无标定图像中的目标物检测与... 在利用全自主智能机器人检测、搬运目标物的过程中,为了提高主机元件对机器人的伺服控制效果,设计了一种无标定图像视觉伺服控制方法;首先,根据机器人轨迹的无标定估计结果,计量目标物的位姿点,推导出机器人无标定图像中的目标物检测与追踪条件;按需连接视觉伺服控制器,通过求解机器人无标定运动内积的方式,计算图像视觉特征的伺服选择标准,实现对机器人无标定图像视觉特征的伺服选择;然后,在无标定图像中定义雅克比矩阵,根据图像视觉分割原则,完成机器人图像角点的伺服匹配处理,再通过确定强化控制参数的取值范围,实现无标定图像的视觉伺服控制;根据实验可知,应用该方法可以解决智能机器人难以运动至标定区域的问题,为提高伺服控制指令的执行有效性提供了保障。 展开更多
关键词 智能机器人 无标定图像 伺服控制 位姿点 运动内积 雅克比矩阵 视觉分割 伺服匹配
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部