V
主页
R3LIVE++:一个实时鲁棒的紧耦合激光雷达-惯性-视觉融合框架
发布人
论文链接:https://arxiv.org/abs/2209.03666 代码链接:http://github.com/hku-mars/r3live SLAM对于自主机器人(例如,自动驾驶汽车、无人驾驶飞机)、3D绘图系统和AR/VR应用程序至关重要。这项工作提出了一种称为R3LIVE++的新型激光雷达惯性视觉融合框架,以实现鲁棒和精确的状态估计,同时动态重建辐射地图。R3LIVE++包括激光雷达惯性里程表(LIO)和视觉惯性里程表,两者均实时运行。LIO子系统利用激光雷达的测量值重建几何结构(即3D点的位置),而VIO子系统同时从输入图像中恢复几何结构的辐射信息。R3LIVE++是在R3LIVE的基础上开发的,通过考虑相机光度校准(例如非线性响应函数和镜头渐晕)和相机曝光时间的在线估计,进一步提高了定位和绘图的准确性。论文在公共和私有数据集上进行了更广泛的实验,以将提议的系统与其它最先进的SLAM系统进行比较。定量和定性结果表明,本文提出的系统在准确性和鲁棒性方面都比其他系统有显著改进!
打开封面
下载高清视频
观看高清视频
视频下载器
通过Intel Realsense 3D激光雷达完成SLAM任务!(性价比超高)
实时3D激光SLAM | 基于广义ICP和位姿图优化的实时无里程计方案(超赞!)
超详细的激光雷达相机标定教程!(Lidar-Camera)
搞懂了!原来激光雷达和相机的内外参是这样标定的
麻省理工开源!LidarDM: 生成逼真、合理连贯的激光雷达点云数据
2022最新!基于激光雷达的3D目标检测综述(超全数据集和SOTA方法汇总)
麻省理工团队 | Fast-LiDARNet:基于激光雷达的高效鲁棒端到端导航框架
超全干货 | 自动驾驶中的传感器融合:前融合+后融合+特征级融合(方法与策略)
香港理工大学最新!Slamesh: 使用激光雷达传感器进行实时定位和网格划分
纯视觉VS激光雷达,到底谁更好?
香港理工最新 !SLAMesh:激光雷达传感器的SLAM系统,实时构建和利用网格
自动驾驶多传感器数据融合(2):IMU和GPS的融合定位
Lidar vs. Tesla:自动驾驶路线之争!激光雷达还是纯视觉?
BEVFusion:一个简单而鲁棒的Lidar-Camera融合框架
【自动驾驶实践】多激光雷达实车安装&外参标定&拼接预处理
LeTS-Drive:自动驾驶中不确定场景下的实时路径规划算法
激光雷达3D目标检测算法有哪些?怎么分类的?
毫米波雷达视觉算法CRAFT,这次彻底理解了!
毫米波雷达视觉到底是怎么融合的?CenterFusion你搞懂了吗?
清华大学&英伟达 | DriveEnv-NeRF:基于NeRF实现高逼真自动驾驶场景,离线测试!
超逼真的数据!实时高质量渲染,用于动态城市场景建模的Street Gaussians
香港科技最新!Contour Context:3D激光雷达回环检测和度量姿态估计的抽象结构分布(ICLR2023)
使用YOLOv4完成激光雷达点云下的3D目标检测!
KTH最新SOTA!大规模回环闭合 | 基于NeRF的稠密SLAM
ECCV2022最新 | 缺少点云数据?LiDARGen生成真实的激光雷达点云
ICRA2022 | 基于图的多传感器融合在自动施工机器人一致定位中的应用
IROS2022最新 | 基于激光雷达的三维运动目标分割的高效时空信息融合
83FPS,史上最快 | IA-SSD: 基于point方式的高效激光雷达点云3D目标检测网络(CVPR2022)
逆天了!NeRF-Casting:逼真重建和渲染高光泽目标
牛津大学最新!室内室外SOTA | 用于视觉重定位的地图相对姿态回归(CVPR'24 HighLight)
摄像头取代激光雷达,可能吗?
IROS2022 | 毫米波雷达和相机融合在高分辨率和远距离深度成像中的探索
毫米波雷达-视觉融合感知方法(前融合/特征级融合/数据级融合)
Nerf+SLAM会擦出什么样的火花?
自动驾驶缺少数据怎么办?ChatSim助你生成高度真实的驾驶数据!
端到端算法是什么?自动驾驶领域是怎么做的?
自动驾驶中的多传感器融合都有哪些方法?基本流程都是什么?
CVPR 2023最新!基于NeRF监督的深度立体视觉
M-LIO:提升传感器信号丢失容忍度的多激光雷达和多IMU里程计
同级唯一带激光雷达 预售不到12万 还看啥小鹏MONA M03?