surfelmeshing+slam+kinectv2学习笔记
作者:互联网
https://github.com/puzzlepaint/surfelmeshing
https://github.com/raulmur/ORB_SLAM2
下载 TUM-Dataset数据集(https://vision.in.tum.de/data/datasets/rgbd-dataset/download),按照surfelmeshing教程即可。
制作数据集的步骤:
1.配置好kinectv2和ros
2.用kinect分别读取rgb和深度图像,分别放在rgb和depth文件夹下,并生成相应的rgb.txt和depth.txt文件。
代码如下,将整个文件夹放在catkin_ws/src下,并配置好相应的CMakeLists.txt和package.xml,catkin_make。
这个代码参考的https://github.com/RuPingCen/save_rgbd_from_kinect2
3.roscore
rosrun save_rgbd_from_kinect2 save_rgbd_from_kinect2 就开始生成rgb图像、depth图像、rgb.txt、depth.txt文件了。
4.associate.py 用来对齐rgb文件和depth文件的时间戳,生成associations.txt。
python associate.py PATH_TO_SEQUENCE/rgb.txt PATH_TO_SEQUENCE/depth.txt > associations.txt
5.往下就是想方设法找到grountruth.txt,即所谓的相机连续的位置和姿态,没有硬件设备,只能用ORB-SLAM来生成。
./Examples/RGB-D/rgbd_tum Vocabulary/ORBvoc.txt Examples/RGB-D/TUMX.yaml PATH_TO_SEQUENCE_FOLDER ASSOCIATIONS_FILE
其中,TUMX.yaml要改相应kinect相机的。运行完后会得到KeyFrameTrajectory.txt,里面即所谓关键帧的相机位置和姿态。
暂时走到这一步,效果不理想,拿不到真实准确的grountruth.txt,无法跑出自己的surfelmeshing,只能用TUM数据集(里面都有比较准确的groundtruth.txt)。
标签:rgbd,kinectv2,surfelmeshing,depth,rgb,slam,https,txt 来源: https://www.cnblogs.com/Ker-win/p/14864883.html