编程语言
首页 > 编程语言> > python-窗口代价计算视差

python-窗口代价计算视差

作者:互联网

一、窗口代价计算视差的的基本原理

二、实现NCC视差匹配方法

三、图像集

四、总结

 

一、窗口代价计算视差的的基本原理

         全局立体匹配算法一般用到的函数:

       其中数据项描述了匹配程度,平滑项体现了定义场景的约束,C是匹配代价,P是不同两像素pq视差的函数,一般称之为惩罚项(penalty),当p点和q点视差不相等时,P>0,且与两者差值越大,P值越大。当pq视差相等时,P=0。由于全局匹配算法在数学上是一个能量函数的优化问题,因此可以找到最优解。这个问题被证明在二维空间是NP困难的。因此,即使全局算法具有准确性较高的优点,其计算速度确非常慢,在实时性要求高的场合不适合使用全局立体匹配算法。

      比较两种算法之间的差异:局部算法运算速度快,但是弱纹理、遮挡和视差不连续区域错误匹配率高。全局算法精度高,但计算复杂度也相应的较高,耗时长、难以达到实时性。

      立体匹配的步骤:

①匹配代价计算(Cost Computation):计算参考图像上每个像素点IR(P),以所有视差可能性去匹配目标图像上对应点IT(pd)的代价值,因此计算得到的代价值可以存储在一个h*w*d(MAX)的三维数组中,通常称这个三维数组为视差空间图

②代价聚合(Cost Aggregation):  通常全局算法不需要代价聚合,而局部算法需要通过求和、求均值或其他方法对一个支持窗口内的匹配代价进行聚合而得到参考图像上一点p在视差d处的累积代价CA(p,d),这一过程称为代价聚合。通过匹配代价聚合,可以降低异常点的影响,提高信噪比(SNR,Signal Noise Ratio)进而提高匹配精度。

③视差计算(Disparity Computation): 局部立体匹配算法的思想,在支持窗口内聚合完匹配代价后,获取视差的过程就比较简单。通常采用‘胜者为王’策略(WTA,Winner Take All),即在视差搜索范围内选择累积代价最优的点作为对应匹配点,与之对应的视差即为所求的视差。即P点的视差为

④后处理(Post Process):  一般的,分别以左右两图为参考图像,完成上述三个步骤后可以得到左右两幅视差图像。但所得的视差图还存在一些问题,如遮挡点视差不准确、噪声点、误匹配点等存在,因此还需要对视差图进行优化,采用进一步执行后处理步骤对视差图进行修正。

二、实现NCC视差匹配方法

2、1原理:对于原始的图像内任意一个像素点(px,py) (p_x,p_y)(p x​ ,p y)构建一个n×n n\times nn×n的邻域作为匹配窗口。然后对于目标相素位置(px+d,py) (p_x+d, p_y)(p x+d,p y)同样构建一个n×n n\times nn×n大小的匹配窗口,对两个窗口进行相似度度量,注意这里的d dd有一个取值范围。对于两幅图像来说,在进行NCC NCCNCC计算之前要对图像处理,也就是将两帧图像校正到水平位置,即光心处于同一水平线上,此时极线是水平的,否则匹配过程只能在倾斜的极线方向上完成,这将消耗更多的计算资源。

NCC计算公式:

 

 

 其中NCC(P, d)得到的值得范围将在[-1, 1]之间。

Wp为之前提到的匹配窗口。

I(2, y)为原始图像的像素值。

Ii (PI, Py)为原始窗口内像素的均值。

I2(x + d, y)为原始图像在目标图像上对应点位置在方向上偏移d后的像素值。

2(P:+ d, Py)为目标图像匹配窗口像素均值。

.若NCC= -1,则表示两个匹配窗口完全不相关,相反,若NCC= 1时,表示两个匹配窗口相关程度非常高。匹配流程 

2、2匹配流程

 

2、3代码实现:

 1 # -*- coding: utf-8 -*-
 2 from PIL import Image
 3 from pylab import *
 4 import cv2
 5 from numpy import *
 6 from numpy.ma import array
 7 from scipy.ndimage import filters
 8 def plane_sweep_ncc(im_l,im_r,start,steps,wid):
 9     """ 使用归一化的互相关计算视差图像 """
10     m,n = im_l.shape
11     # 保存不同求和值的数组
12     mean_l = zeros((m,n))
13     mean_r = zeros((m,n))
14     s = zeros((m,n))
15     s_l = zeros((m,n))
16     s_r = zeros((m,n))
17     # 保存深度平面的数组
18     dmaps = zeros((m,n,steps))
19     # 计算图像块的平均值
20     filters.uniform_filter(im_l,wid,mean_l)
21     filters.uniform_filter(im_r,wid,mean_r)
22     # 归一化图像
23     norm_l = im_l - mean_l
24     norm_r = im_r - mean_r
25     # 尝试不同的视差
26     for displ in range(steps):
27         # 将左边图像移动到右边,计算加和
28         filters.uniform_filter(np.roll(norm_l, -displ - start) * norm_r, wid, s) # 和归一化
29         filters.uniform_filter(np.roll(norm_l, -displ - start) * np.roll(norm_l, -displ - start), wid, s_l)
30         filters.uniform_filter(norm_r*norm_r,wid,s_r) # 和反归一化
31         # 保存 ncc 的分数
32         dmaps[:,:,displ] = s / sqrt(s_l * s_r)
33         # 为每个像素选取最佳深度
34     return np.argmax(dmaps, axis=2)
35 
36 def plane_sweep_gauss(im_l,im_r,start,steps,wid):
37  """ 使用带有高斯加权周边的归一化互相关计算视差图像 """
38  m,n = im_l.shape
39  # 保存不同加和的数组
40  mean_l = zeros((m,n))
41  mean_r = zeros((m,n))
42  s = zeros((m,n))
43  s_l = zeros((m,n))
44  s_r = zeros((m,n))
45  # 保存深度平面的数组
46  dmaps = zeros((m,n,steps))
47  # 计算平均值
48  filters.gaussian_filter(im_l,wid,0,mean_l)
49  filters.gaussian_filter(im_r,wid,0,mean_r)
50  # 归一化图像
51  norm_l = im_l - mean_l
52  norm_r = im_r - mean_r
53  # 尝试不同的视差
54  for displ in range(steps):
55      # 将左边图像移动到右边,计算加和
56      filters.gaussian_filter(np.roll(norm_l, -displ - start) * norm_r, wid, 0, s) # 和归一化
57      filters.gaussian_filter(np.roll(norm_l, -displ - start) * np.roll(norm_l, -displ - start), wid, 0, s_l)
58      filters.gaussian_filter(norm_r*norm_r,wid,0,s_r) # 和反归一化
59      # 保存 ncc 的分数
60      dmaps[:,:,displ] = s / np.sqrt(s_l * s_r)
61  # 为每个像素选取最佳深度
62  return np.argmax(dmaps, axis=2)
63 
64 im_l = array(Image.open(r'jia/1.jpg').convert('L'), 'f')
65 im_r = array(Image.open(r'jia/2.jpg').convert('L'),'f')
66 # 开始偏移,并设置步长
67 steps = 12
68 start = 4
69 # ncc 的宽度
70 wid = 9
71 res = plane_sweep_ncc(im_l,im_r,start,steps,wid)
72 import scipy.misc
73 scipy.misc.imsave('depth.png',res)
74 show()

 

2、4结果截图

当wid=2时

运行结果:

当wid=9时

运行结果:

 

当wid=15时

运行结果:

小结:两张图片是从网上搜集的,图像集下面附有网址,1.jpg为模板,2.jpg为待测图像。我分别把wid设为2、9、15,运行出来的结果如上,当wid越小的时候,结果图的点就越密集,我所观察到的是有轮廓的地方,颜色就越深,而其他地方的颜色就比较浅,有的地方甚至呈现白色。我认为是窗口越小,像素点越密集,图像的清晰度就越高。

三、图像集

                   left                      right

 

图片链接:http://vision.middlebury.edu/stereo/data/scenes2003/

 

四、总结

这次试验我理解不是很精,只是跟着我的理解和参考一些博客来写的,图像是我网上收集的,打开我发的链接就可以搜到,代码是网上搜索到的,我运行出来的结果如上,我学到的知识是窗口代价计算视差的原理,也不是很精,就是大概知道一些原理和实现的步骤,从运行结果来看,我认为当窗口值越小时,匹配出的图像的点就越密集,像素点就越密集。有轮廓的地方,颜色就越黑,应该是因为有轮廓的区域或者很黑的的区域与与原模板相同位置的反差越小,反之,颜色越白的区域白表示周围跟模板相同位置反差越大。

参考博客:https://blog.csdn.net/qq_38898129/article/details/93074387

标签:wid,匹配,python,算法,im,图像,窗口,视差
来源: https://www.cnblogs.com/wyf-1999-1--6/p/12780109.html