如何使用openCV使用广角镜头正确校准我的相机?
作者:互联网
我正在尝试使用鱼眼镜头校准相机.因此我使用了鱼眼镜头模块,但无论我修复什么样的失真参数,都会得到奇怪的结果.
这是我使用的输入图像:https://i.imgur.com/apBuAwF.png
其中红色圆圈表示我用来校准相机的角落.
这是我能得到的最好的,输出:https://imgur.com/a/XeXk5
我目前不知道相机传感器的尺寸是什么,但根据我的内在矩阵计算的焦距(以像素为单位),我推断我的传感器尺寸约为3.3mm(假设我的物理焦距为1.8mm) ),这对我来说似乎很现实.然而,当我对输入图像失真时,我得到了废话.有人能告诉我,我可能做错了吗?
校准输出的矩阵和均方根:
K:[263.7291703200009, 0, 395.1618975493187;
0, 144.3800397321767, 188.9308218101271;
0, 0, 1]
D:[0, 0, 0, 0]
rms: 9.27628
我的代码:
#include <opencv2/opencv.hpp>
#include "opencv2/core.hpp"
#include "opencv2/imgcodecs.hpp"
#include "opencv2/imgproc.hpp"
#include "opencv2/highgui.hpp"
#include "opencv2/ccalib/omnidir.hpp"
using namespace std;
using namespace cv;
vector<vector<Point2d> > points2D;
vector<vector<Point3d> > objectPoints;
Mat src;
//so that I don't have to select them manually every time
void initializePoints2D()
{
points2D[0].push_back(Point2d(234, 128));
points2D[0].push_back(Point2d(300, 124));
points2D[0].push_back(Point2d(381, 126));
points2D[0].push_back(Point2d(460, 127));
points2D[0].push_back(Point2d(529, 137));
points2D[0].push_back(Point2d(207, 147));
points2D[0].push_back(Point2d(280, 147));
points2D[0].push_back(Point2d(379, 146));
points2D[0].push_back(Point2d(478, 153));
points2D[0].push_back(Point2d(551, 165));
points2D[0].push_back(Point2d(175, 180));
points2D[0].push_back(Point2d(254, 182));
points2D[0].push_back(Point2d(377, 185));
points2D[0].push_back(Point2d(502, 191));
points2D[0].push_back(Point2d(586, 191));
points2D[0].push_back(Point2d(136, 223));
points2D[0].push_back(Point2d(216, 239));
points2D[0].push_back(Point2d(373, 253));
points2D[0].push_back(Point2d(534, 248));
points2D[0].push_back(Point2d(624, 239));
points2D[0].push_back(Point2d(97, 281));
points2D[0].push_back(Point2d(175, 322));
points2D[0].push_back(Point2d(370, 371));
points2D[0].push_back(Point2d(578, 339));
points2D[0].push_back(Point2d(662, 298));
for(int j=0; j<25;j++)
{
circle(src, points2D[0].at(j), 5, Scalar(0, 0, 255), 1, 8, 0);
}
imshow("src with circles", src);
waitKey(0);
}
int main(int argc, char** argv)
{
Mat srcSaved;
src = imread("images/frontCar.png");
resize(src, src, Size(), 0.5, 0.5);
src.copyTo(srcSaved);
vector<Point3d> objectPointsRow;
vector<Point2d> points2DRow;
objectPoints.push_back(objectPointsRow);
points2D.push_back(points2DRow);
for(int i=0; i<5;i++)
{
for(int j=0; j<5;j++)
{
objectPoints[0].push_back(Point3d(5*j,5*i,1));
}
}
initializePoints2D();
cv::Matx33d K;
cv::Vec4d D;
std::vector<cv::Vec3d> rvec;
std::vector<cv::Vec3d> tvec;
int flag = 0;
flag |= cv::fisheye::CALIB_RECOMPUTE_EXTRINSIC;
flag |= cv::fisheye::CALIB_CHECK_COND;
flag |= cv::fisheye::CALIB_FIX_SKEW;
flag |= cv::fisheye::CALIB_FIX_K1;
flag |= cv::fisheye::CALIB_FIX_K2;
flag |= cv::fisheye::CALIB_FIX_K3;
flag |= cv::fisheye::CALIB_FIX_K4;
double rms =cv::fisheye::calibrate(
objectPoints, points2D, src.size(),
K, D, rvec, tvec, flag, cv::TermCriteria(3, 20, 1e-6)
);
Mat output;
cerr<<"K:"<<K<<endl;
cerr<<"D:"<<D<<endl;
cv::fisheye::undistortImage(srcSaved, output, K, D);
cerr<<"rms: "<<rms<<endl;
imshow("output", output);
waitKey(0);
cerr<<"image .size: "<<srcSaved.size()<<endl;
}
如果有人有想法,可以随意在C中用Python共享一些代码.无论什么漂浮你的船.
编辑:
您可能已经注意到我没有使用黑色和白色棋盘进行校准,但瓷砖的角落构成了我的地毯.在一天结束时,目标 – 我认为 – 获得角坐标,其表示来自失真半径的样本.地毯在某种程度上与棋盘相同,唯一的区别 – 我认为 – 在地毯上的角落比黑色和白色棋盘上的高频边缘更少.
我知道图片的数量是非常有限的,即只有1.我希望图像在某种程度上不失真,但我也期望非正常工作做得很好.但在这种情况下,图像输出看起来像完全无意义.
我最终在棋盘上使用了这个图像:https://imgur.com/a/WlLBR
本网站提供的:https://sites.google.com/site/scarabotix/ocamcalib-toolbox/ocamcalib-toolbox-download-page
但结果仍然很差:对角线像我发布的其他输出图像.
谢谢
解决方法:
您的第一个问题是您只使用一个图像.即使您有一个没有失真的理想针孔相机,您也无法从单个共面点图像估计内在函数.一个共面点的图像根本没有给你足够的约束来解决内在函数.
您需要至少两个不同3D方向的图像,或3D点校准装置,这些点不是共面的.当然,在实践中,您需要至少20张图像才能进行精确校准.
你的第二个问题是你正在使用地毯作为棋盘.您需要能够以亚像素精度检测图像中的点.小的定位误差导致估计的相机参数中的大误差.我非常怀疑你能以合理的准确度检测地毯方块的角落.事实上,你甚至无法准确地测量地毯上的实际点位置,因为它是模糊的.
祝你好运!
标签:python,c,opencv,camera-calibration,computer-vision 来源: https://codeday.me/bug/20190929/1832607.html