OKVIS 是紧耦合的,视觉和 IMU 的误差项和状态量在一起优化。
博客:https://fzheng.me/cn/
摘要:
视觉和惯性传感器数据融合越来越普遍,它们在传感器感知特征上互补。大部分的融合策略主要是靠滤波器的设计,视觉机器人最近大量采用非线性优化方法处理SLAM,对这个领域内的性能和计算复杂度进行了大量改进。跟随这一趋势,我们在SLAM技术中,从惯性传感器中读取数据,将视觉测量和惯性传感器紧密结合。惯性传感器的误差用概率方法集成到路标的重投影误差里面,这样就可以用一个合成的非线性函数进行优化。利用“关键帧”这一强有力的方式,我们部分地忽略之前的状态,维护一个有限大小的优化窗口,以确保操作的实时性。对比单纯视觉算法和松耦合的视觉-惯性传感器算法,我们的紧耦合方法被证明精度和鲁棒性非常好。
一 简介:
二 紧耦合视觉与惯性传感器融合:
A. 名词和定义
1) 名词:
表示一个参考帧A;表达式中的向量记为pA或pABC,其中B和C作为开始和结束点。图像帧之间的变换矩阵TAB为齐次变换矩阵,它将齐次点的坐标表示从
转变成
。它的旋转矩阵部分记为CAB;对应的四位数就写为
,ε和η分别表示实部和虚部。我们采用论文1中介绍的名词:关于四位数乘法
,我们引入左手复合运算
和右手运算符
,那么
。
2) 坐标系
,我们将相机坐标记为
,惯性传感器坐标记为
。
。惯性传感器数据表示为
。
可以根据世界坐标
来计算。
3) 状态
。还有,位姿状态记为
,速度和偏移记为
。路标用齐次坐标如论文3中那样表示,用于无缝集成近处和远处的路标:
。
的摄动方程为
。我们采用最小坐标表示
。一个从最小坐标岛切向空间的双映射
投影变换为:
。
。获取最小的机器人误差状态向量:
和速度/偏移误差状态
。
B. 包含惯性变量的分批视觉SLAM
是加速度观测值,gw是地球重力加速度向量。与陀螺仪偏移随机游走模型不同,我们采用时间常量τ>0构建加速度传感器随机游走偏移模型。矩阵Ω从角速度的估计值获取
, 其中陀螺仪的测量值
:
包含了所有过程的噪声密度
。
做为机器人状态在k和k+1时刻的一部分,另外还有所有的在这两个时刻间的IMU测量数据(包括加速度计和陀螺仪的读数)统称为
。这里我们必须估计一个机器人在相机拍摄时间k和k+1时刻的状态的正态条件概率密度f:
的条件协方差为
为:
可以直接计算。
和
相关的雅可比矩阵在优化问题中用于提供一种有效的方法。
直接方法不同,需要搞清楚雅可比矩阵的其他部分。IMU误差等式14采用迭代计算。与状态
不同,应用链式规则,生成等式16:
C. 关键点匹配和关键帧选择
D. 部分挑选方法
1)非线性优化中挑选方法的数学推导:
是筛选后的状态更新,其中
是x的估计值。 也就是说x由下面的表达式组成:
在这里,无穷远处(或接近无穷远处)挑选的节点组成路标,或者路标只在相机的某个位姿可见,与那些路标关联的海塞矩阵块往往是等级比较低的。因此,我们采用伪倒置矩阵
,
作为被加数构建整体高斯-牛顿系统。卡方分布误差可以写为:
。
2)挑选方法应用于基于关键帧的视觉-惯性传感器SLAM
中构建,它们都带有速度和偏移,如图6所示。每个N的第一帧都被认为是关键帧,挑选步骤是去除对应的速度和偏移。
(当前帧,序号c)
插入到优化窗口时, 就运行筛选操作。这时,时间窗口中最老的帧就不是关键帧,我们就丢掉所有的路标观测值,将他们和最老的速度和偏移状态一起挑选出来。图7演示了这个过程。丢掉路标观测值是局部最优的;然而,对快速解决方案它使问题稀疏化。基于关键帧的视觉SLAM处理过程也是类似的,会丢掉整个帧和路标测量值。
作为关键帧,丢掉所有关键帧观测值,信息丢失就更明显:所有具有共同路标观测值的两个最老的关键帧之间的位姿信息将会丢失。 因此,我们要剔除那些在
可见,但在大多数最近的关键帧中不可见的路标。 图8显示了这个过程。再次使用了这个问题的稀疏性。
三 结论
A. Vicon:绕着圈子走
图9. 与Vicon基准的对比。所有情况的关键帧测量。第5个和第95个百分数,还有10米内的平均值。
B. 汽车:室外长距离轨迹
传感器在汽车顶部,同步捕捉6D GPS-INS基准工作频率100Hz,轨迹8公里。图10 是带有基准的估计轨迹顶视图对比。图11是平移和旋转误差的定量对比,反映了视觉和惯性传感器观测值紧融合状态下显著增强。与预计的情况一样,松耦合方法和视觉方法性能相似。主要因为松耦合方法在长时间水平运动状态下而不是在重力方向上,没有增强位姿估计。


C. 建筑:长期室内回环

最后一个实验是手持传感器长时间作室内回环上5层楼。没有基准,我们只能做定性评估,用我们算好的方法做室内3D重构,叠加视觉轨迹作对比。这显示了走廊和楼梯上光照和纹理条件下的挑战。图12的顶视图演示了回环误差0.6米和视觉误差2.2米的对比。
四 结论
本文演示了基于关键帧视觉SLAM集成惯性传感器的紧耦合方法。非线性优化中的误差估计包括关键点检测和IMU数据读取,优于参数调整。使用这些方法,可以获得重力方向全局一致性和采用IMU运动模型的鲁棒的离群点去除方法。同时,也使用了关键帧非线性优化,比如位姿不动时。采用实时立体相机和IMU融合,精度和鲁棒性优于视觉或松耦合方法。
参考文献
[1] T. Barfoot, J. R. Forbes, and P. T. Furgale. Poseestimation using linearized rotations and quaternionalgebra. Acta Astronautica, 68(12):101 – 112, 2011.
[2] T-C. Dong-Si and A. I. Mourikis. Motion trackingwith fixed-lag smoothing: Algorithm and consistencyanalysis. In Proceedings of the IEEE InternationalConference on Robotics and Automation (ICRA), 2011.
[3] P. T. Furgale. Extensions to the Visual OdometryPipeline for the Exploration of Planetary Surfaces.PhD thesis, University of Toronto, 2011.
[4] P. T. Furgale, J. Rehder, and R. Siegwart. Unified temporaland spatial calibration for multi-sensor systems. In Proc. of the IEEE/RSJ International Conferenceon Intelligent Robots and Systems (IROS), 2013. Toappear.
[5] A. Geiger, P. Lenz, and R. Urtasun. Are we readyfor autonomous driving? the KITTI vision benchmark suite. In Proc. of the IEEE Conference on ComputerVision and Pattern Recognition (CVPR), 2012.
[6] J. A. Hesch, D. G. Kottas, S. L. Bowman, and S. I.Roumeliotis. Towards consistent vision-aided inertialnavigation. In Proc. of the Int’l Workshop on theAlgorithmic Foundations of Robotics (WAFR), 2012.
[7] V. Indelman, S. Williams, M. Kaess, and F. Dellaert.Factor graph based incremental smoothing in inertial navigation systems. In Information Fusion (FUSION),International Conference on, 2012.
[8] E. S. Jones and S. Soatto. Visual-inertial navigation,mapping and localization: A scalable real-time causalapproach. International Journal of Robotics Research(IJRR), 30(4):407–430, 2011.
[9] J. Kelly and G. S. Sukhatme. Visual-inertial sensor fusion: Localization, mapping and sensor-to-sensor selfcalibration.International Journal of Robotics Research(IJRR), 30(1):56–79, 2011.
[10] K. Konolige, M. Agrawal, and J. Sola. Large-scale visualodometry for rough terrain. In Robotics Research,pages 201–212. Springer, 2011.
[11] R. K¨ummerle, G. Grisetti, H. Strasdat, K. Konolige,and W. Burgard. g2o: A general framework for graph optimization. In Proceedings of the IEEE InternationalConference on Robotics and Automation (ICRA), 2011.
[12] S. Leutenegger, M. Chli, and R.Y. Siegwart. BRISK:Binary robust invariant scalable keypoints. In Proceedingsof the IEEE International Conference onComputer Vision (ICCV), 2011.
[13] C. Mei, G. Sibley, M. Cummins, P. M. Newman, andI. D. Reid. Rslam: A system for large-scale mappingin constant-time using stereo. International Journal ofComputer Vision, pages 198–214, 2011.
[14] A. I. Mourikis and S. I. Roumeliotis. A multistateconstraint Kalman filter for vision-aided inertialnavigation. In Proceedings of the IEEE InternationalConference on Robotics and Automation (ICRA), 2007.
[15] A. Ranganathan, M. Kaess, and F. Dellaert. Fast 3dpose estimation with out-of-sequence measurements.In Proc. of the IEEE/RSJ International Conference onIntelligent Robots and Systems (IROS), 2007.
[16] G. Sibley, L. Matthies, and G. Sukhatme. Slidingwindow filter with application to planetary landing.Journal of Field Robotics, 27(5):587–608, 2010.
[17] D. Sterlow and S. Singh. Motion estimation from imageand intertial measurements. International Journalof Robotics Research (IJRR), 23(12):1157–1195, 2004.
[18] H. Strasdat, J. M. M. Montiel, and A. J. Davison. Realtimemonocular SLAM: Why filter? In Proceedingsof the IEEE International Conference on Robotics andAutomation (ICRA), 2010.
[19] B. Triggs, P. Mclauchlan, R. Hartley, and A. Fitzgibbon.Bundle adjustment – a modern synthesis. InVision Algorithms: Theory and Practice, September,1999, pages 298–372. Springer-Verlag, 1999.
[20] S. Weiss, M.W. Achtelik, S. Lynen, M. Chli, andR. Siegwart. Real-time onboard visual-inertial stateestimation and self-calibration of MAVs in unknownenvironments. In Proc. of the IEEE InternationalConference on Robotics and Automation (ICRA), 2012.
最后
以上就是风趣睫毛最近收集整理的关于okvis 基于关键帧视觉惯性传感器非线性优化SLAM 论文翻译+博客总结的全部内容,更多相关okvis内容请搜索靠谱客的其他文章。
发表评论 取消回复