C++ OpenCV如何进行图像全景拼接

C++ OpenCV如何进行图像全景拼接

C++OpenCV如何进行图像全景拼接,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。

    前言

    下面将使用OpenCV C++ 进行图像全景拼接。目前使用OpenCV对两幅图像进行拼接大致可以分为两类。

    一、使用OpenCV内置API Stitcher 进行拼接。

    二、使用特征检测算法匹配两幅图中相似的点、计算变换矩阵、最后对其进行透视变换就可以了。

    一、OpenCV Stitcher

    imageA

    imageB

    原图如图所示。本案例的需求是将上述两幅图片拼接成一幅图像。首先使用OpenCV提供的Stitcher进行拼接。关于Stitcher的具体原理请大家自行查找相关资料。

    1.功能源码

    boolOpenCV_Stitching(MatimageA,MatimageB){vector<Mat>images;images.push_back(imageA);images.push_back(imageB);Ptr<Stitcher>stitcher=Stitcher::create();Matresult;Stitcher::Statusstatus=stitcher->stitch(images,result);//使用stitch函数进行拼接if(status!=Stitcher::OK)returnfalse;imshow("OpenCV图像全景拼接",result);returntrue;}

    2.效果

    这就是使用OpenCV 内置Stitcher拼接出来的效果。

    二、图像全景拼接

    1.特征检测

    使用方法二进行图像全景拼接。目前网上教程大致流程归为:

    1、使用特征检测算子提取两幅图像的关键点,然后进行特征描述子匹配。我这里使用的是SURF算子。当然SIFT等其他特征检测算子也可以。

    //创建SURF特征检测器intHessian=800;Ptr<SURF>detector=SURF::create(Hessian);//进行图像特征检测、特征描述vector<KeyPoint>keypointA,keypointB;MatdescriptorA,descriptorB;detector->detectAndCompute(imageA,Mat(),keypointA,descriptorA);detector->detectAndCompute(imageB,Mat(),keypointB,descriptorB);//使用FLANN算法进行特征描述子的匹配FlannBasedMatchermatcher;vector<DMatch>matches;matcher.match(descriptorA,descriptorB,matches);

    如图为使用FLANN算法进行特征描述子匹配的结果。我们需要把那些匹配程度高的关键点筛选出来用以下面计算两幅图像的单应性矩阵。

    2、筛选出匹配程度高的关键点

    doubleMax=0.0;for(inti=0;i<matches.size();i++){//floatdistance–>代表这一对匹配的特征点描述符(本质是向量)的欧氏距离,数值越小也就说明两个特征点越相像。doubledis=matches[i].distance;if(dis>Max){Max=dis;}}//筛选出匹配程度高的关键点vector<DMatch>goodmatches;vector<Point2f>goodkeypointA,goodkeypointB;for(inti=0;i<matches.size();i++){doubledis=matches[i].distance;if(dis<0.15*Max){//intqueryIdx–>是测试图像的特征点描述符(descriptor)的下标,同时也是描述符对应特征点(keypoint)的下标。goodkeypointA.push_back(keypointA[matches[i].queryIdx].pt);//inttrainIdx–>是样本图像的特征点描述符的下标,同样也是相应的特征点的下标。goodkeypointB.push_back(keypointB[matches[i].trainIdx].pt);goodmatches.push_back(matches[i]);}}

    如图为imageA筛选出来的关键点。

    如图为imageB筛选出来的关键点。

    从上图可以看出,我们已经筛选出imageA,imageB共有的关键点部分。接下来,我们需要使用这两个点集计算两幅图的单应性矩阵。

    2.计算单应性矩阵

    计算单应性变换矩阵

    //获取图像A到图像B的投影映射矩阵,尺寸为3*3MatH=findHomography(goodkeypointA,goodkeypointB,RANSAC);MatM=(Mat_<double>(3,3)<<1.0,0,imageA.cols,0,1.0,0,0,0,1.0);MatHomo=M*H;

    3.透视变换

    根据计算出来的单应性矩阵对imageA进行透视变换

    //进行透视变换MatDstImg;warpPerspective(imageA,DstImg,Homo,Size(imageB.cols+imageA.cols,imageB.rows));imshow("透视变换",DstImg);

    如图所示为imageA进行透视变换得到的结果。

    4.图像拼接

    根据上述操作,我们已经得到了经透视变换的imageA,接下来只需将imageA与imageB拼接起来就可以了。

    imageB.copyTo(DstImg(Rect(imageA.cols,0,imageB.cols,imageB.rows)));imshow("图像全景拼接",DstImg);

    5.功能源码

    boolImage_Stitching(MatimageA,MatimageB,booldraw){//创建SURF特征检测器intHessian=800;Ptr<SURF>detector=SURF::create(Hessian);//进行图像特征检测、特征描述vector<KeyPoint>keypointA,keypointB;MatdescriptorA,descriptorB;detector->detectAndCompute(imageA,Mat(),keypointA,descriptorA);detector->detectAndCompute(imageB,Mat(),keypointB,descriptorB);//使用FLANN算法进行特征描述子的匹配FlannBasedMatchermatcher;vector<DMatch>matches;matcher.match(descriptorA,descriptorB,matches);doubleMax=0.0;for(inti=0;i<matches.size();i++){//floatdistance–>代表这一对匹配的特征点描述符(本质是向量)的欧氏距离,数值越小也就说明两个特征点越相像。doubledis=matches[i].distance;if(dis>Max){Max=dis;}}//筛选出匹配程度高的关键点vector<DMatch>goodmatches;vector<Point2f>goodkeypointA,goodkeypointB;for(inti=0;i<matches.size();i++){doubledis=matches[i].distance;if(dis<0.15*Max){//intqueryIdx–>是测试图像的特征点描述符(descriptor)的下标,同时也是描述符对应特征点(keypoint)的下标。goodkeypointA.push_back(keypointA[matches[i].queryIdx].pt);//inttrainIdx–>是样本图像的特征点描述符的下标,同样也是相应的特征点的下标。goodkeypointB.push_back(keypointB[matches[i].trainIdx].pt);goodmatches.push_back(matches[i]);}}if(draw){Matresult;drawMatches(imageA,keypointA,imageB,keypointB,goodmatches,result);imshow("特征匹配",result);Mattemp_A=imageA.clone();for(inti=0;i<goodkeypointA.size();i++){circle(temp_A,goodkeypointA[i],3,Scalar(0,255,0),-1);}imshow("goodkeypointA",temp_A);Mattemp_B=imageB.clone();for(inti=0;i<goodkeypointB.size();i++){circle(temp_B,goodkeypointB[i],3,Scalar(0,255,0),-1);}imshow("goodkeypointB",temp_B);}//findHomography计算单应性矩阵至少需要4个点/*计算多个二维点对之间的最优单映射变换矩阵H(3x3),使用MSE或RANSAC方法,找到两平面之间的变换矩阵*/if(goodkeypointA.size()<4||goodkeypointB.size()<4)returnfalse;//获取图像A到图像B的投影映射矩阵,尺寸为3*3MatH=findHomography(goodkeypointA,goodkeypointB,RANSAC);MatM=(Mat_<double>(3,3)<<1.0,0,imageA.cols,0,1.0,0,0,0,1.0);MatHomo=M*H;//进行透视变换MatDstImg;warpPerspective(imageA,DstImg,Homo,Size(imageB.cols+imageA.cols,imageB.rows));imshow("透视变换",DstImg);imageB.copyTo(DstImg(Rect(imageA.cols,0,imageB.cols,imageB.rows)));imshow("图像全景拼接",DstImg);returntrue;}

    6.效果

    最终拼接效果如图所示。

    三、源码

    #include<iostream>#include<opencv2/opencv.hpp>#include<opencv2/xfeatures2d.hpp>#include<opencv2/stitching.hpp>usingnamespacestd;usingnamespacecv;usingnamespacecv::xfeatures2d;//1、使用特征检测算法找到两张图像中相似的点,计算变换矩阵//2、将A透视变换后得到的图片与B拼接boolImage_Stitching(MatimageA,MatimageB,booldraw){//创建SURF特征检测器intHessian=800;Ptr<SURF>detector=SURF::create(Hessian);//进行图像特征检测、特征描述vector<KeyPoint>keypointA,keypointB;MatdescriptorA,descriptorB;detector->detectAndCompute(imageA,Mat(),keypointA,descriptorA);detector->detectAndCompute(imageB,Mat(),keypointB,descriptorB);//使用FLANN算法进行特征描述子的匹配FlannBasedMatchermatcher;vector<DMatch>matches;matcher.match(descriptorA,descriptorB,matches);doubleMax=0.0;for(inti=0;i<matches.size();i++){//floatdistance–>代表这一对匹配的特征点描述符(本质是向量)的欧氏距离,数值越小也就说明两个特征点越相像。doubledis=matches[i].distance;if(dis>Max){Max=dis;}}//筛选出匹配程度高的关键点vector<DMatch>goodmatches;vector<Point2f>goodkeypointA,goodkeypointB;for(inti=0;i<matches.size();i++){doubledis=matches[i].distance;if(dis<0.15*Max){//intqueryIdx–>是测试图像的特征点描述符(descriptor)的下标,同时也是描述符对应特征点(keypoint)的下标。goodkeypointA.push_back(keypointA[matches[i].queryIdx].pt);//inttrainIdx–>是样本图像的特征点描述符的下标,同样也是相应的特征点的下标。goodkeypointB.push_back(keypointB[matches[i].trainIdx].pt);goodmatches.push_back(matches[i]);}}if(draw){Matresult;drawMatches(imageA,keypointA,imageB,keypointB,goodmatches,result);imshow("特征匹配",result);Mattemp_A=imageA.clone();for(inti=0;i<goodkeypointA.size();i++){circle(temp_A,goodkeypointA[i],3,Scalar(0,255,0),-1);}imshow("goodkeypointA",temp_A);Mattemp_B=imageB.clone();for(inti=0;i<goodkeypointB.size();i++){circle(temp_B,goodkeypointB[i],3,Scalar(0,255,0),-1);}imshow("goodkeypointB",temp_B);}//findHomography计算单应性矩阵至少需要4个点/*计算多个二维点对之间的最优单映射变换矩阵H(3x3),使用MSE或RANSAC方法,找到两平面之间的变换矩阵*/if(goodkeypointA.size()<4||goodkeypointB.size()<4)returnfalse;//获取图像A到图像B的投影映射矩阵,尺寸为3*3MatH=findHomography(goodkeypointA,goodkeypointB,RANSAC);MatM=(Mat_<double>(3,3)<<1.0,0,imageA.cols,0,1.0,0,0,0,1.0);MatHomo=M*H;//进行透视变换MatDstImg;warpPerspective(imageA,DstImg,Homo,Size(imageB.cols+imageA.cols,imageB.rows));imshow("透视变换",DstImg);imageB.copyTo(DstImg(Rect(imageA.cols,0,imageB.cols,imageB.rows)));imshow("图像全景拼接",DstImg);returntrue;}boolOpenCV_Stitching(MatimageA,MatimageB){vector<Mat>images;images.push_back(imageA);images.push_back(imageB);Ptr<Stitcher>stitcher=Stitcher::create();Matresult;Stitcher::Statusstatus=stitcher->stitch(images,result);//使用stitch函数进行拼接if(status!=Stitcher::OK)returnfalse;imshow("OpenCV图像全景拼接",result);returntrue;}intmain(){MatimageA=imread("image1.jpg");MatimageB=imread("image2.jpg");if(imageA.empty()||imageB.empty()){cout<<"NoImage!"<<endl;system("pause");return-1;}if(!Image_Stitching(imageA,imageB,true)){cout<<"cannotstitchingtheimage!"<<endl;}if(!OpenCV_Stitching(imageA,imageB)){cout<<"cannotstitchingtheimage!"<<endl;}waitKey(0);system("pause");return0;}

    小编使用OpenCV C++进行图像全景拼接,关键步骤有以下几点。

    1、使用特征检测算子提取两幅图像的关键点,然后进行特征描述子匹配。

    2、筛选出匹配程度高的关键点计算两幅图的单应性矩阵。

    3、利用计算出来的单应性矩阵对其中一张图片进行透视变换。

    4、将透视变换的图片与另一张图片进行拼接。

    看完上述内容,你们掌握C++OpenCV如何进行图像全景拼接的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注亿速云行业资讯频道,感谢各位的阅读!

    发布于 2022-01-05 23:23:00
    收藏
    分享
    海报
    0 条评论
    61
    上一篇:Java怎么写Hello World 下一篇:如何通过C语言实现井字棋游戏
    目录

      0 条评论

      本站已关闭游客评论,请登录或者注册后再评论吧~

      忘记密码?

      图形验证码