山西省建设局官方网站中企动力值不值得入职
news/
2025/9/23 12:02:48/
文章来源:
山西省建设局官方网站,中企动力值不值得入职,m99ww094cn 苍井空做的网站,私人搭建服务器19-20年VIO 梳理 1. 开源代码介绍#xff1a; DSM2. FMD Stereo SLAM#xff1a;融合MVG和直接方法#xff0c;实现准确#xff0c;快速的双目SLAM3. 基于VINS-Mono开发的SPVIS4. 改进#xff1a;一种基于光流的动态环境移动机器人定位方案5. PVIO:基于先验平面约束的高效… 19-20年VIO 梳理 1. 开源代码介绍 DSM2. FMD Stereo SLAM融合MVG和直接方法实现准确快速的双目SLAM3. 基于VINS-Mono开发的SPVIS4. 改进一种基于光流的动态环境移动机器人定位方案5. PVIO:基于先验平面约束的高效VIO6. 具有占有率正态分布变换的基于图的实时SLAM7. PL-SLAM:结合点线特征的双目SLAM8. 基于地标外貌和空间相对位置的图匹配的长期地点识别9. 半直接单目视觉和视觉惯性SLAM及其闭环检测10. 松耦合的半直接法单目SLAM11. 基于动态边缘化的VI-DSO12. 基于位姿图的无人水下航行器室内导航测试13. 水下领域基于状态估计的开源VIO实验对比14. DISCOMAN用于室内里程计制图和导航的室内场景数据集15. 地面机器人的视觉辅助定位vins on wheel16. GPS-denied环境下结合UWB-Vision方法的UAVS自动停泊17. 基于基准点的开源视觉-惯导运动捕捉系统18. 改进加入提示的二进制特征描述子用于视觉地点重识别19. 用于鲁棒定位的高效的视觉上下文分类器(特征点新的描述方法)20. 港科大基于通用优化的多传感器全局位姿估计框架(vins-fusion)21. OmniSLAM多鱼眼相机的SLAM系统22. 基于ORB-SLAM2可持续保存地图的扩展方案23. ORB-SLAM2 / ORB-SLAM3 相关改进代码24. 实验测评综合比较几种适用于无人机的单目惯性里程计算法25. 综述基于滤波和优化的视觉惯性里程计综述26. 室内slam数据集Lifelong SLAM数据集与挑战赛27. 各种数据集最强 SLAM Datasets 合集28. 标定利用直线和平面对应关系自动标定相机与三维激光雷达之间的外参29. 间歇的GPS辅助VIO在线初始化和标定30.用于室内环境下的多传感器融合slam数据集31. SlamBench2视觉SLAM的多目标头对头基准测试32. 港科大——双目视觉深度估计及3D地图构建工作 1. 开源代码介绍 DSM
Direct Sparse Mapping(DSM)是一个采用直接法的单目视觉SLAM系统可以看成是DSO的一个增强版本。DSM与DSO最大的不同在于DSM可以处理地图点的重观测。 为此DSM借鉴了ORB-SLAM2中的局部窗口和共视关系等概念。DSM最大的优点在于代码的模块化做的很好程序的各个模块和各个类都做了很好的封装比DSO的代码要清晰易懂的多。而且DSM的代码里也有很多可以借鉴的地方例如DSM会实时统计各个帧的光度误差的分布用学生t分布去拟合DSM内部也用内存池和线程池来对内存资源和计算资源进行抽象和封装。DSM非常适合对直接法感兴趣的朋友去学习。
代码链接 论文链接 视频展示 相关参考: Literature Review: 基于稀疏直接法的建图 Direct Sparse Mapping Direct Sparse Odometry
论文: Direct Sparse Mapping 算法简介: 之前的直接法里程计例如DSO采用Schur Complement来边缘化掉滑窗外的点和位姿这导致其无法处理地图点的重新观测。本文提出一个完整的单目直接法SLAM系统可以处理地图点的重观测并且在EuRoC数据集上取得了直接法里面最精确的结果。本文的贡献在于可以处理地图点的重观测利用共视关系来选择关键帧采用coarse-to-fine的策略来做光度优化以增加收敛半径以及用t分布拟合光度误差来进行外点管理。
2. FMD Stereo SLAM融合MVG和直接方法实现准确快速的双目SLAM
标题FMD Stereo SLAM: Fusing MVG and Direct Formulation Towards Accurate and Fast Stereo SLAM 作者Fulin Tang, Heping Li, Yihong Wu 来源2019 IEEE International Conference on Robotics and Automation (ICRA), May 20-24, 2019, Montreal, Canada 中科院特征点法和直接法结合 泡泡机器人描述
摘要描述 我们提出了一种新颖的双目视觉SLAM框架同时兼顾了精度和速度。该框架充分利用了基于关键特征的多视图几何MVG和基于直接方法的优势。在前端我们的系统执行直接公式和恒定运动模型来预测稳健的初始姿势重新投影局部地图以找到3D-2D对应并通过重投影误差最小化来最终确定姿势。这个前端过程使我们的系统更快。在后端MVG用于估计3D结构。插入新关键帧时通过三角测量生成新的地图点。为了提高所提出系统的准确性删除了坏的地图点并通过束调整保持全局地图。特别地执行立体约束以优化地图。这种后端流程使我们的系统更加准确。对EuRoC数据集的实验评估表明所提出的算法可以在消费者计算机上以每秒100帧以上的速度运行同时实现高度竞争的准确性。
3. 基于VINS-Mono开发的SPVIS
ICRA 2020 Hierarchical Quadtree Feature Optical Flow Tracking Based Sparse Pose-Graph Visual-Inertial SLAM
基于VINS-Mono开发了SPVIS前端提出hierarchical quadtree方法提高optical flow feature tracking的性能大幅降低需要的feature数量。后端采用固定时长的sliding window做全局优化窗口之外仅保留pose graph。整个系统效率很高从而支持长期运行。
4. 改进一种基于光流的动态环境移动机器人定位方案
标题AnAccurate Localization Scheme for Mobile Robots Using Optical Flow in DynamicEnvironments 作者Jiyu Cheng, Yuxiang Sun, Wenzheng Chi, Chaoqun Wang, Hu Cheng and Max Q.-H. Meng 来源2018 IEEE International Conference on Robotics and Biomimetics
泡泡机器人
摘要描述 提出了一种利用光流从提取的特征点中识别和消除动态特征点的新方法。将静态特征点加入到视觉SLAM算法中进行位姿估计。我们将我们的方法与ORB-SLAM系统集成并利用TUM数据集中的动态序列验证了所提出的方法。整个系统可以实时运行。定性和定量的评估表明我们的方法大大提高了视觉SLAM在动态场景中的性能。
评利用前后帧特征点变换计算光流大小来移除动态点
5. PVIO:基于先验平面约束的高效VIO
论文Jinyu Li, Bangbang Yang, Kai Huang, Guofeng Zhang, and Hujun Bao*. Robust and Efficient Visual-Inertial Odometry with Multi-plane Priors. PRCV 2019, LNCS 11859, pp. 283–295, 2019. 论文下载链接 简介 代码仓库 摘要描述 在人造环境中通常都会有平面结构如果这些平面信息能够被有效地利用起来将有助于提升VIO的鲁棒性。为此我们提出了一个基于多平面先验信息的高效鲁棒的轻量级VIO系统PVIO。在这个工作中我们提出了一个新颖的视觉-惯性-平面PnP算法来实现快速的定位同时基于重投影一致性来可靠地扩展平面从而增强在深度高度不确定情况下的跟踪鲁棒性。此外在滑动窗口优化模块中提出了一个无结构的平面距离约束项以及相应的边缘化和滑窗策略可以有效降低计算复杂度同时保证良好的精度。EuRoC和TUM-VI两个数据集上的实验结果表明PVIO在跟踪精度上跟现在的前沿VI-SLAM系统VINS-Mono相当但只需要单线程运行效率上具有明显的优势。
6. 具有占有率正态分布变换的基于图的实时SLAM
标题 Real-Time Graph-Based SLAM with Occupancy Normal Distributions Transforms 作者Cornelia Schulz and Andreas Zell 来源2020 IEEE International Conference on Robotics and Automation (ICRA) 基于NDT地图的2D laser SLAM比occupancy版本的baselineCartographer精度和速度都更好一些。 泡泡机器人 摘要描述 在这项工作中我们对ONDT匹配函数进行了重新格式化使其成为最小二乘问题可以使用各种健壮的数值和分析非线性优化器来解决。此外我们提出了一种新颖的全局ONDT扫描匹配器用于闭环。在我们的评估中我们的NDT和ONDT方法能够胜过我们从Google Cartographer实施中采用的基于占用网格图的方法。 7. PL-SLAM:结合点线特征的双目SLAM
标题PL-SLAM: A Stereo SLAM System Through the Combination of Points and Line Segments 作者: Ruben Gomez-Ojeda, Francisco-Angel Moreno 来源TRO 2019 泡泡机器人
摘要描述 本文提出了PL-SLAM这是一种双目视觉SLAM系统它结合了点和线段能够在更广泛的场景中稳定地工作特别是在点特征在图像中缺乏或分布不均匀的情况下。PL-SLAM在过程的所有实例中都利用了点和线段视觉里程计、关键帧选择、束调整等。我们还通过一种新颖的词包方法提供了一个循环闭合过程该方法利用了这两种特征的组合描述能力。 主要贡献 1.第一个实时开源的同时使用点和线分割特征深度SLAM系统并且在弱纹理环境中传统点特征方法失效的情况下拥有较高的运行鲁棒性。 2.一种新的同时处理点和线特征调整关键字位姿。 3.一种扩展BoW方法同时考虑点和线特征分割提高闭环检测 注整个方法基于ORB-SLAM进行开展。 C开源代码
8. 基于地标外貌和空间相对位置的图匹配的长期地点识别
标题Long-term Place Recognition through Worst-case Graph Matching to Integrate Landmark Appearances and Spatial Relationships 作者Peng Gao and Hao Zhang 来源ICRA2020
泡泡机器人
摘要描述 地点识别是很多机器人应用中的SLAM技术中的重要环节。最近一些采用地标信息来解决长期地点识别中场景变化问题的方法取得了不错的效果。然而先前的方法未考虑地标的变化例如旧的地标的消失和新的地标的出现。并且这些方法对地标的描述通常仅仅使用了地标的视觉信息或者几何信息。本文设计了一个图表示一个地方通过编码距离和角度空间关系以及地标的视觉外观。然后地点识别问题可以转换为最坏情况下的图匹配问题。该算法方法通过计算相似性最小的地标之间的距离和角度空间关系来度量地点的相似度。如果最差情况下地标的视觉相似度较低那么即使其几何位置相识度较高也被作为不同的地点。
主要贡献 1、提出了一种融合地标视觉信息和相对位置的几何信息的地点编码方法改善了基于地标的地点编码方式 2、将地点识别问题作为最差情况下的图匹配问题从而有效解决了长期地点识别中路标变动的问题
9. 半直接单目视觉和视觉惯性SLAM及其闭环检测
标题Semi-direct monocular visual and visual-inertial SLAM with loop closuredetection 作者Shao-peng Li, Tao Zhang, Xiang Gao, Duo Wang, Yong Xian 来源Robotics and Autonomous Systems 2018
泡泡机器人
摘要描述 作者提出了 一个新的半直接单目视觉同时定位与建图SLAM系统。它既能保持直接法的快速性又能具有基于特征方法的高精度和闭环检测能力。该系统提取和匹配每一个关键帧中的ORB特征并使用不需要特征提取和匹配的直接法来跟踪每一个非关键帧。关键帧用来全局或局部优化以及闭环而非关键帧则用来做快速跟踪和定位因此该系统结合了直接法和特征方法的优势。此外还提出一个单目视觉惯性SLAM系统基于视觉SLAM来融合惯性测量数据。该系统能够成功恢复尺度信息。 主要贡献
提出了一个新的半直接单目视觉SLAM系统 - SVL (semi-direct, visual and loop closure detection)同时还提出了一个半直接单目视觉惯性SLAM系统即在上述系统基础上融合惯性测量数据 - SVL-VI (visual-inertial)既能保持直接法的快速性又具有基于特征方法的高精度和闭环检测能力。给出了半直接SLAM系统具有竞争力的测试结果。
10. 松耦合的半直接法单目SLAM
标题Loosely-Coupled Semi-Direct Monocular SLAM 作者Seong Hun Lee and Javier Civera 来源International Conference on Robotics and Automation (ICRA)2019
泡泡机器人
摘要描述 本文提出了一种新颖的单目同步定位与建图SLAM方法该方法结合了直接法和特征点法的优势。提出的对直接法视觉里程计和基于特征点法松耦合的SLAM执行三个层次的并行优化1联合局部特征和相机运动的光度捆集调整BA2改善关键帧位姿和相关联地图点的几何BA3存在闭环检测时全局地图一致性的位姿图优化。这是通过将基于特征的边缘化关键帧的操作限制为使用直接法里程计模块实时实现的。对两个数据集的详细评估表明我们的系统在总体准确性和鲁棒性方面优于最新的单目里程计和SLAM系统。
贡献 1局部对于局部精度来说使用直接法能够鲁棒短期半稠密并且迅速的来跟踪相机的位姿 2全局使用基于特征点法来改善关键帧的位姿同时进行回环检测。建立了一个可以复用的全局长期稀疏特征点的地图。
评可关注下作者是如何处理特征点法和直接法在前端的松耦合处理
算法开源
11. 基于动态边缘化的VI-DSO
标题Direct Sparse Visual-Inertial Odometry using Dynamic Marginalization 作者Lukas von Stumberg, Vladyslav Usenko, Daniel Cremers 来源IEEE International Conference on Robotics and Automation (ICRA), 2018, Brisbane 泡泡机器人 摘要描述 本文提出了一个新的视觉惯导里程计VIOVI-DSO其通过光度最小化和IMU的测量值来估计相机的位姿和恢复稀疏场景。 在视觉部分VI-DSO也使用了光束法平差进行优化但是与传统基于特征点的系统不同本系统中优化的对象是光度误差这意味着本系统不仅能够跟踪角点还可以跟踪梯度足够大的像素点。 而对于IMU部分本文使用预积分获取视频帧之间的相对关系并将其作为约束添加到优化过程中在本系统中尺度和重力方向也是需要估计的参数与位姿参数等等一起进行估计和优化。同时针对IMU一般需要一段时间后才能获取尺度信息的问题本文中的VI-DSO能够首先以任意尺度初始化而不需要等待IMU得到足够的观测值。 另外为提高计算效率本文对“老”的参数进行部分边缘化partial marginalization即本文提出的动态边缘化Dynamic Marginalization这种边缘化方法甚至能够在尺度未知的情况下进行部分边缘化。最后本文在EuRoC数据上进行测试实验结果表明VI-DSO是目前最优的算法。
12. 基于位姿图的无人水下航行器室内导航测试
泡泡机器人 摘要 本文提出了基于位姿图的室内导航测试的初步实验结果旨在应用于无人水下航行器UUV。为了验证其有效性并估计位姿图技术的性能我们使用地面机器人kobuki进行了室内测试。在此实验中机器人在办公室和走廊的室内移动来连续创建机器人路径的位姿图位于机器人正面的LIDAR传感器也被用于构建地图。
评作者在机器人上使用了激光和地表码
13. 水下领域基于状态估计的开源VIO实验对比
标题Experimental Comparison of Open Source Visual-Inertial-Based State Estimation Algorithms in the Underwater Domain 作者Bharat Joshi, Sharmin Rahman, Michail Kalaitzakis, Brennan Cain, James Johnson, Marios Xanthidis, Nare Karapetyan, Alan Hernandez, Alberto Quattrini Li, Nikolaos Vitzilaios, and Ioannis Rekleitis 来源2019 IROS
泡泡机器人
摘要描述 本文中比较了最近的10个VIO开源包为了提供对它们性能的见解和解决当前挑战的指导方针。具体地选择了直接法和间接法来融合相机和惯性测量单元数据。实验是通过对我们实验室多年来收集的水下机器人数据集的所有包进行测试。所有数据集都是在线提供的。
14. DISCOMAN用于室内里程计制图和导航的室内场景数据集
标题DISCOMAN: Dataset of Indoor SCenes for Odometry, Mapping and Navigation 作者Pavel Kirsanov, Airat Gaskarov, Filipp Konokhov, Konstantin Sofiiuk, Anna Vorontsova, Igor Slinko, Dmitry Zhukov, Sergey Bykov, Olga Barinova, Anton Konushin 来源IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)2019
泡泡机器人
摘要描述 我们提供了一个用于训练和基准化语义SLAM方法的新颖数据集该数据集由200个长序列组成每个序列包含3000-5000个数据帧。 我们对模拟简单的家用机器人运动的轨迹进行采样然后沿这些轨迹渲染框架。每个数据帧包含a使用基于物理的渲染生成的RGB图像b模拟的深度测量c模拟的IMU与现有数据集索引我们的数据集具有更广泛的用途并且是针对SLAM映射组件的第一个大型基准测试。数据集分为从我们介绍了基于经典几何[1][2]和最近基于学习[3]的SLAM算法基准线映射方法[4]语义分割[ 5]和全景分割[6]的基准测试结果。用于复制我们的实验的数据集和源代码将在发布时公开提供。
评可用于室内环境下slam仿真
15. 地面机器人的视觉辅助定位vins on wheel
标题Vision-Aided Localization For Ground Robots 作者Mingming Zhang, Yiming Chen and Mingyang Li 来源IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)2019 泡泡机器人
摘要介绍 通过融合摄像机IMU和车轮里程表的测量结果提出了一种专门针对地面机器人设计的新颖的基于视觉的定位算法。本文的第一个贡献是我们提出了一种新颖的算法该算法可通过参数表示逼近地面机器人的运动流形并通过IMU和车轮里程计测量执行姿态积分。其次通过使用基于滑动窗口的估计器提出了一种完整的定位算法。估计器是基于迭代优化设计的可以融合来自多个传感器的测量结果并与建议的歧管表示形式相融合。我们显示基于各种现实世界的实验所提出的算法在很大程度上优于基于视觉的最新定位算法尤其是在大规模复杂环境中部署时。
评可以看下作者是如何把轮速计融入至vio
16. GPS-denied环境下结合UWB-Vision方法的UAVS自动停泊
标题Integrated UWB-Vision Approach for Autonomous Docking of UAVs in GPS-denied Environments 作者Thien-Minh Nguyen ; Thien Hoang Nguyen ; Muqing Cao ; et. al 来源ICRA 2019 泡泡机器人
主要贡献
结合UWB测距和视觉移动测量提出了一种基于递归最小二乘优化的相对定位方案并证明了估计误差以指数形式收敛。 2)相较于以往着陆于固定台的方案我们实现了与移动着陆台的协同对接这让对接任务灵活性更强。 3)在着陆阶段提出了结合相对位置估计和测距的方法实现更精确的着陆通过大量实验验证了方案在长达50米时的有效性。
摘要描述 本文提出一种有效而且鲁棒的GPS辅助的视觉惯导里程计GPS-VIO系统该系统使用低频的GPS测量数据融合相机IMU数据。为了执行传感器融合需要进行时空传感器标定和传感器参考帧之间的转换初始化。本文提出一种在线标定的方法对于GPS-IMU之间的外参、时间偏移以及对GPS传感器噪声具有鲁棒性的参考帧初始化步骤。此外在VIO参考帧中进行估计时证明了GPS-VIO系统存在四个不可观测的方向并提出对GPS参考帧进行状态转换以实现完全可观。我们在蒙特卡罗仿真环境中广泛评估了所提出的方法该方法中我们研究了系统对不同级别的噪声和GPS信号损失的鲁棒性并且另外研究了初始化过程中所使用的超参数。最后在大规模的真实实验中验证了所提出的系统。
17. 基于基准点的开源视觉-惯导运动捕捉系统
标题An Open Source, Fiducial Based, Visual-Inertial Motion Capture System 作者Michael Neunert ,Michael Bloesch,Jonas Buchli 来源FUSION 2016 泡泡机器人 主要贡献 本文提出了一种基于单目-惯导EKF-SLAM的轻量级运动估计系统该系统使用了人工地标。这项工作通过使用6 DoF的地标的角点观察并改编相应的卡尔曼滤波器紧耦合SLAM和基于基准点的定位。这允许更小的地图尺寸和更精简的估计。与已有的依赖6DoF基准点的现有方法相比所提出的框架在单个估计器中处理视觉测量和惯导数据这保证了一致的数据并避免预校准和再校准。
18. 改进加入提示的二进制特征描述子用于视觉地点重识别
标题Adding Cues to Binary Feature Descriptors for Visual Place Recognition 作者Dominik Schlegel and Giorgio Grisetti 来源The International Conference in Robotics and Automation(ICRA) 2019 泡泡机器人 摘要描述 本文提出了一种将连续或有选择的提示嵌入用于视觉地点重识别的二进制描述子的方法。该嵌入方法将原来的描述子与编码提示的二进制字符串进行组合并支持使用汉明距离作为度量。将该种方式增广的描述子应用于原有应用无需过多改进。
19. 用于鲁棒定位的高效的视觉上下文分类器(特征点新的描述方法)
标题LandmarkBoost: Efficient Visual Context Classifiers for Robust Localization 作者Marcin Dymczyk, Igor Gilitschenski, Juan Nieto, Simon Lynen, Bernhard Zeis, and Roland Siegwart 来源International Conference on Intelligent Robots and Systems (IROS 2018) 泡泡机器人
摘要描述 自动化系统的日益扩展产生对可靠和有效的尺度位置检索算法的需求。当前使用的方法依赖依赖二进制代码的最近邻搜索来执行2D3D匹配并保证移动平台上的实时能力。然而这些方法与地图的大小增加视点或外观的变化以及环境中存在的视觉混叠相矛盾。
我们提出LandmarkBoost方法与传统的2D-3D匹配方法分类这种方法将搜索问题作为标志性的分类任务。
20. 港科大基于通用优化的多传感器全局位姿估计框架(vins-fusion)
标题A General Optimization-based Framework for GlobalPose Estimation with Multiple Sensors 作者Tong Qin, Shaozu Cao, Jie Pan, and Shaojie Shen 来源arXiv 2019 泡泡机器人 开源地址
21. OmniSLAM多鱼眼相机的SLAM系统
文章OmniSLAM: Omnidirectional Localization and Dense Mapping for Wide-baseline Multi-camera Systems 作者Changhee Won, Hochang Seok , Zhaopeng Cui , Marc Pollefeys , and Jongwoo Lim 介绍链接
文章主要贡献 主要贡献总结如下
i 提出了一种轻量化和改进的网络鱼眼相机的深度估计。网络的精度、参数个数、运行时间等都比以前的版本有了很大的提高使本系统更加实用。
ii通过将深度图集成到ROVO鲁棒的视觉里程计中并增加回环闭合模块构建了一个鲁棒的全向视觉SLAM系统。在具有挑战性的室内和大型室外环境中估算的轨迹精度比以前的版本有所提高。
iii提出了一个完整的全方位定位和稠密地图系统并在合成环境和真实的室内外环境中进行了大量的实验结果表明我们的系统能够为各种场景生成重建良好的三维稠密地图
简评作者利用轻量化模型进行深度估计并将生成的深度图集成至ROVO中。
22. 基于ORB-SLAM2可持续保存地图的扩展方案
文章Persistent Map Saving for Visual Localization for Autonomous Vehicles: An ORB-SLAM 2 Extension 作者Felix Nobis∗, Odysseas Papanikolaou, Johannes Betz and Markus Lienkamp 增加了地图保存和先验地图定位功能 工作介绍 该工程是支持ROS的定位模式时需要提供一个map文件其中包含ORB SLAM类的对象map、MapPoint、Keyframe和KeyframeDatabase以及每个关键帧的DBoW2 BoWVector和FeatureVector。因此我们创建了一个SaveMap方法它在SLAM进程结束时将此信息保存在二进制文件中。对于连续运行时用户可以通过设置文件指定是否加载地图文件。如果用户决定使用保存的地图则在系统启动时调用LoadMap方法该方法加载保存的地图和KeyframeDatabase并将系统设置为定位模式。定位模式是自动完成的用户无需在线手动更改系统模式。SaveMap和LoadMap方法都集成在ORB-SLAM 2的系统类中该类处理所有主要功能。
开源地址
23. ORB-SLAM2 / ORB-SLAM3 相关改进代码
介绍链接 本文总结了特征点法SLAM中目前效果最好的方法ORB-SLAM2 / ORB-SLAM3 相关改进代码汇总包括加速、多传感器融合、稠密建图、线特征、点线融合、导航、动态环境、多平台移植等。具体见下。 ORB-SLAM2 相关改进代码汇总: 论文发表于2017年的IEEE Transactions on Robotics论文名称《ORB-SLAM2: an Open-Source SLAM System for Monocular, Stereo and RGB-D Cameras》
ORB-SLAM2 特点
首个2017年发布时支持单目双目和RGB-D相机的完整的开源SLAM方案具有回环检测和重新定位的功能。
能够在CPU上进行实时工作可以用于移动终端如 移动机器人、手机、无人机、汽车。
特征点法的巅峰之作定位精度极高可达厘米级。
能够实时计算出相机的位姿并生成场景的稀疏三维重建地图。
代码非常整洁包含很多实际应用中的技巧非常实用。
支持仅定位模式该模式适用于轻量级以及在地图已知情况下长期运行此时不使用局部建图和回环检测的线程
[超详细中文注释版]
改进方法
ORBSLAM2_with_pointcloud_map 高翔实现的添加稠密点云地图
[ORB-SLAM2_RGBD_DENSE_MAP] (https://github.com/tiantiandabaojian/ORB-SLAM2_RGBD_DENSE_MAP)在高翔基础上添加了稠密闭环地图
[ORB-YGZ-SLAM] (https://github.com/gaoxiang12/ORB-YGZ-SLAM) 使用SVO中直接法来跟踪代替耗时的特征点提取匹配在保持同样精度的情况下是原始ORB-SLAM2速度的3倍
[YGZ-stereo-inertial SLAM] (https://github.com/gaoxiang12/ygz-stereo-inertial) 双目VIO版本加入了LK光流和滑动窗口BA优化
[VI-ORB] https://github.com/jingpang/LearnVIORB 京胖实现的VI-ORB-SLAM2
[Fisheye-ORB-SLAM] (https://github.com/lsyads/fisheye-ORB-SLAM)添加了支持鱼眼
[Save and load orb-slam2 maps] (https://github.com/AlejandroSilvestri/osmap)添加保存和导入地图功能
[ORB_SLAM2 with map load/save function] (https://github.com/Jiankai-Sun/ORB_SLAM2_Enhanced)添加保存和导入地图功能
[Viewer for maps from ORB-SLAM2 Osmap] (https://github.com/AlejandroSilvestri/Osmap-viewer) 添加了地图可视化
[Add line feature based ORB-SLAM2] (https://github.com/atlas-jj/ORB_Line_SLAM)添加了线特征
[RGBD-SLAM with Point and Line Features, developed based on ORB_SLAM2] (https://github.com/maxee1900/RGBD-PL-SLAM)添加了点线融合
[Good Feature Selection for Least Squares Pose Optimization in VO/VSLAM] (https://github.com/ivalab/gf_orb_slam2)使用了一种更好的特征选择方法
ORB_SLAM2_SSD_Semantic, 动态语义SLAM 目标检测VSLAM光流/多视角几何动态物体检测octomap地图目标数据库
[Tracking Enhanced ORB-SLAM2] (https://github.com/Eralien/TE-ORB_SLAM2) 用YOLO v3的语义信息来增加跟踪性能
YOLO Dynamic ORB_SLAM用YOLO来做动态环境的检测
多平台移植代码 [Windows version ORBSLAM2,Easy built by visual studio] (https://github.com/phdsky/ORBSLAM24Windows) Windows平台版本可以用 visual studio轻松编译
[ORB-SLAM-Android, test on Sony Xperia Z] (https://github.com/castoryan/ORB-SLAM-Android) Android移植在 Sony Xperia上测试
[ORBSLAM2 on Mac OSX] (https://github.com/meiroo/ORBSLAM2-OSX)Mac OSX版本
[ROS interface for ORBSLAM2] (https://github.com/ethz-asl/orb_slam_2_ros)添加ROS接口
ORB-SLAM3 相关代码
2020年07月开源, 论文《ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial and Multi-Map SLAM》
ORB-SLAM3特点
支持视觉、视觉加惯导、混合地图的SLAM系统可以在单目双目和RGB-D相机上利用针孔或者鱼眼模型运行。
基于特征的紧耦合的VIO系统仅依赖于最大后验估计(包括IMU初始化时)。因此不管是在大场景还是小场景室内还是室外都能鲁棒实时的运行精度上相比于上一版提升了2到5倍
根据新的重定位模块来构建的多地图系统可以让系统在特征不是很好的场景中长期运行。
第一个能够在所有算法阶段重用所有先前信息的系统可以在BA的时候使用相隔很远的共视关键帧。 https://arxiv.org/pdf/2007.11898.pdf https://github.com/UZ-SLAMLab/ORB_SLAM3
ORB_SLAM3-RGBD-Inertial
增加了RGBD-IMU的运行模式和ROS接口增加了单目IMU和双目IMU的ROS接口替换了词典为二进制格式加载速度更快。依据ORB_SLAM3重写了RGBD-IMU的ROS接口避免出现队列拥塞提供了Kinect for Azure的参数文件
————————————————
24. 实验测评综合比较几种适用于无人机的单目惯性里程计算法
标题A Benchmark Comparison of Monocular Visual-Inertial Odometry Algorithms for Flying Robots 作者Jeffrey Delmerico and Davide Scaramuzza 来源2018 IEEE International Conference on Robotics and Automation (ICRA), May 21-25, 2018, Brisbane, Australia
泡泡机器人
本文在不同硬件条件下包括无人机最常见的单一计算平台的情况评估了一系列开源VIO算法MSCKF, OKVIS, ROVIO, VINS-Mono, SVOMSF, SVOGTSAM。我们在EuRoC数据集上测试了各个算法的位姿估计精度、处理每一帧所用的时间以及CPU和内存的占用情况该数据集包含无人机各种典型的6自由度飞行轨迹。我们展示了所有对比的数据这可以为其他相关研究提供对比基准。 文章的视频已经公开在YouTube上
25. 综述基于滤波和优化的视觉惯性里程计综述
标题A review of visual inertial odometry from filtering and optimisation perspectives 作者Jianjun Gui∗, Dongbing Gu, Sen Wang and Huosheng Hu 来源Advanced Robotics, 2015
泡泡机器人描述添加链接描述
26. 室内slam数据集Lifelong SLAM数据集与挑战赛
论文地址添加链接描述 数据集地址添加链接描述 比赛以及数据集介绍添加链接描述 2019赛况介绍
27. 各种数据集最强 SLAM Datasets 合集
泡泡机器人添加链接描述 数据集介绍链接添加链接描述
28. 标定利用直线和平面对应关系自动标定相机与三维激光雷达之间的外参
标题Automatic Extrinsic Calibration of a Camera and a 3D LiDAR using Line and Plane Correspondences 作者Lipu Zhou, Zimo Li, and Michael Kaess 来源2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)
泡泡机器人添加链接描述 摘要 本文中使用棋盘格标定板处理了相机与三维激光雷达之间的外参标定。与之前要求至少三个棋盘格标定板位置不同我们的算法通过联合三维线和面对应关系将最少需要的棋盘格位置减少到1。
29. 间歇的GPS辅助VIO在线初始化和标定
标题 Intermittent GPS-aided VIO: Online Initialization and Calibration 作者Woosik Lee, Kevin Eckenhoff, Patrick Geneva, and Guoquan Huang 来源2020 IEEE International Conference on Robotics and Automation (ICRA) 泡泡机器人描述添加链接描述
摘要描述 本文提出一种有效而且鲁棒的GPS辅助的视觉惯导里程计GPS-VIO系统该系统使用低频的GPS测量数据融合相机IMU数据。为了执行传感器融合需要进行时空传感器标定和传感器参考帧之间的转换初始化。本文提出一种在线标定的方法对于GPS-IMU之间的外参、时间偏移以及对GPS传感器噪声具有鲁棒性的参考帧初始化步骤。此外在VIO参考帧中进行估计时证明了GPS-VIO系统存在四个不可观测的方向并提出对GPS参考帧进行状态转换以实现完全可观。我们在蒙特卡罗仿真环境中广泛评估了所提出的方法该方法中我们研究了系统对不同级别的噪声和GPS信号损失的鲁棒性并且另外研究了初始化过程中所使用的超参数。最后在大规模的真实实验中验证了所提出的系统。
30.用于室内环境下的多传感器融合slam数据集
http://www.rawseeds.org/rs/datasets/view//6
31. SlamBench2视觉SLAM的多目标头对头基准测试
摘要 SLAM正在成为机器人和增强现实AR系统的关键组成部分。虽然大量的SLAM算法被提出但是很少的努力花在统一这些算法的接口或者对它们的能力进行整体比较上。这是一个问题因为不同的SLAM应用程序可以有不同的功能和非功能需求。例如基于手机的AR应用程序有着很紧的能耗预算而无人机导航系统通常需要很高的精度。SlamBench2是一个基准框架用于评估现有和未来的SLAM系统包括开放源代码和封闭源代码以及可扩展的数据集列表同时使用可比较且明确指定的性能指标列表。支持现有的各种SLAM算法和数据集例如ElasticFusion、InfiniTAM、ORB-SLAM2、OKVIS并且整合新的算法和数据集是由框架直接而明确地指定的。SlamBench2是一个公开可用的软件框架它代表了定量、可比较和可验证的实验研究的起点以研究跨SLAM系统的权衡。
32. 港科大——双目视觉深度估计及3D地图构建工作
关于如何判断vins-mon运行失败轨迹已经漂移可以参考港科大工作 VINS-Fusion with Cerebro
双目大视角鱼眼vins-fusion 开源工程 VINS-Fisheye的开发 文章中介绍了关于双目深度计算的部分以及开发过程很有参考意义并且代码中也将该部分独立了出来
基于深度学习的双目深度计算 HKUST-Aerial-Robotics——MVDepthNet 使用样例港科大高飞使用vins-mono和MVDepthNet进行三维环境障碍物地图精细重建 开源地址
更加详细的内容合并资源港科大教学重复计划无人驾驶飞机比赛
很强大的无人机概率地图生成添加链接描述 该项目包含用于四旋翼快速飞行的强大且计算效率高的算法的集合
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/912477.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!