其他分享
首页 > 其他分享> > 双目稠密点云的资料记录

双目稠密点云的资料记录

作者:互联网

2020. 03.15. 16:09

有生成双目稠密点云来避障的需求,这周找了一些资料,还没做出一个满意的效果来。

先记录一下资料链接。

https://zhuanlan.zhihu.com/p/38252296  

这个链接里的效果没跑出来,没玩过qt,稍微花点时间应该也是跑的起来的。

简单玩了下 libelas,感觉效果不是那么好,可能是我什么参数没设置在合理范围内。

 

然后看到了一个patchmatch (stereo)

https://github.com/nebula-beta/PatchMatch  

单看效果图是很惊艳的,感觉吊打opencv自带的双目重建,但是在自己纠正过的双目图片上跑,

一是效果很差,可能还是参数设置问题,二是速度很慢,三是可能我标定的不太好。

https://github.com/nebula-beta/PatchMatchCuda  这是同一作者对应的cuda版本,还没试过。

 

然后找了些patchmatch方面的资料看,patch应该算是一种图片处理上的、可以推广的手段或方法,

不限于双目视差估计。

https://www.cnblogs.com/tweed/p/10893548.html   这篇稍微理解了下文章中的公式。

 

既然patchmatch是一种方法,那为什么还要限制在双目上。

这个 https://github.com/kysucix/gipuma  论文和库就是在序列图像上重建出三维模型。

简单浏览了下论文和代码,就记住了在GTX980显卡上,640 x 480 的10张图像,重建出三维模型

要 2.5 s。一篇相关的博客:https://blog.csdn.net/fangjin_kl/article/details/76072755 

 

然后发现了 patchmatch stereo 的深度学习版本:

https://github.com/uber-research/DeepPruner   然而好像是有监督的深度估计...

待我有空了把它结合 monodepth2 做一个无监督的版本出来。

 

然后发现了一个 stixel 做避障   https://github.com/gishi523/stixel-world  

这个在自动驾驶上用的应该还是蛮多的。

发现速度倒是挺快,但是如果视差估计效果太糟糕,这个算法效果也会相当糟糕。

所以前提还是要有比较高质量的视差估计。

后续会在双目视差估计上下点功夫,我讨厌激光slam!

 

标签:github,稠密,patchmatch,双目,https,点云,com,视差
来源: https://www.cnblogs.com/shepherd2015/p/12498531.html