添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

本文目标是通过使用SIFT和RANSAC 算法 ,完成特征点的正确匹配,并求出变换矩阵,通过变换矩阵计算出要识别物体的边界(文章中有部分源码,整个工程我也上传了,请点击 这里 )。

SIFT算法是目前公认的效果最好的特征点检测算法,关于该算法的就不多说了,网上的资料有很多,在此提供两个链接,一个是SIFT原文的译文,一个是关于SIFT算法的详细解释:

SIFT算法译文

SIFT算法详解

整个实现过程可以复述如下:提供两张初始图片,一幅为模板图像,一幅为 测试 图片,目的就是根据模板图片中的物体,检测出测试图片中的物体,并表示出物体的具体位置和大小,测试图片中的物体位置和大小,已经事先用白色方框标记。

首先,对两幅图片,都使用SIFT算法提取特征点,提取结果如下:(SIFT特征提取方法就用的是上文链接“SIFT算法详解”中提供的代码)

然后对特征点进行匹配,按照SIFT算法原文作者的思路,每个特征点产生一个128维的向量,计算向量之间的欧式距离,采用最近比次近的方式完成匹配,如果最近距离比上次近距离小于0.8,则认为这是一个正确的匹配, 否则认为匹配不成功。结果这种匹配后的情况如下图:

可以发现,仍然存在着很多错误的匹配点,所以再尝试用RANSAC算法消除错误匹配,尝试使用 OpenCV 中的findFundamentalMat函数消除错误匹配:

通过使用findFundamentalMat函数,函数返回一个3*3的矩阵,一开始我认为这个矩阵就是变换矩阵,只要将左图中的点与这个变换矩阵相乘,就可以得到右图中的对应点。但是这其实是不对的。

在这里有一个误解,就是findFundamentalMat函数确实可以使用RANSAC方法消除错误匹配,从名字上可以发现,这个函数的作用是返回基础矩阵的,基础矩阵和变换矩阵是两个不同的概念。基础矩阵描述是三维场景中的像点之间的对应关系(其实到现在为止这个函数求出的基础矩阵有个毛用我也不知道)。所以说,如果使用这个函数,这个实验也就能做到这一步了,没法再往下做了。

所以,为了得到变换矩阵,后来我才发现openCV中还有函数findHomography,这个函数才是真正的计算变换矩阵的函数,它的函数返回值才是真正的变换矩阵。

其实这个问题困扰了我很久,关于消除错误匹配的方法,网上查出来的多数都是通过findFundamentalMat函数来进行,所以我就想当然的认为该函数的返回值是变换矩阵了。而网上关于findHomography的介绍比较少,所以才会让人们误解findFundamentalMat会计算出变换矩阵了。

尝试用findHomography函数返回的矩阵,在模板图像中,已经用绿色方框标示出物体轮廓,根据物体的四个边界点,与变换矩阵相乘,即可得到变换后的物体的轮廓的四个边界点,将此边界点连接即为物体轮廓,如下图所示(绿色方框为事先标注的模板物体中的轮廓,白色方框为事先标注的测试图片中的轮廓,红色方框为经过绿色方框经变换矩阵变换后计算出的轮廓):

从结果可以看出,这才是比较正确的结果。

实验过程中的主要代码如下(这是主要的代码,SIFT算法和一些其他的功能函数我都写在了其他的文件中):

  1. #include<math.h>
  2. #include<time.h>
  3. #include <windows.h>
  4. #include <iostream>
  5. using namespace std;
  6. #include <cv.h>
  7. #include <highgui.h>
  8. #include <cxcore.h>
  9. using namespace cv;
  10. #include “sift.h”
  11. #include “my_function.h”
  12. int main()
  13. {
  14. //加载两幅图片
  15. Mat src1 = imread( ”F:\\ylab\\image database\\camera\\obj01_001.jpg” );
  16. Mat src2 = imread( ”F:\\ylab\\image database\\imagesTest2\\test01_.jpg” );
  17. //这四个坐标是模板图像中绿色方框的四个顶点
  18. Point2f m1(173.0,0.0),m2(168.0,464.0),m3(507.0,464.0),m4(499.0,0.0);
  19. std::vector<Point2f> obj_corners(4);
  20. obj_corners[0] = cvPoint(173.0,0.0);
  21. obj_corners[1] = cvPoint(168.0,464.0);
  22. obj_corners[2] = cvPoint(507.0,464.0);
  23. obj_corners[3] = cvPoint(499.0,0.0);
  24. //原始图片比较大,我这里将图片同一处理成了640*480的大小
  25. Size certainsize=Size(640,480);
  26. Mat src_1;
  27. Mat src_2;
  28. resize(src1,src_1,certainsize);
  29. resize(src2,src_2,certainsize);
  30. //两个图像的特征点序列
  31. Vector<Keypoint> feature_1,feature_2;
  32. //采用sift算法,计算特征点序列,这个SIFT函数是在另外的文件中写好的
  33. Sift(src_1, feature_1, 1.6);
  34. Sift(src_2, feature_2, 1.6);
  35. //feature_dis为带有距离的特征点结构体序列
  36. Vector<Key_point> feature_dis_1;
  37. Vector<Key_point> feature_dis_2;
  38. Vector<Key_point> result;
  39. //对特征点进行匹配,这个Match_feature是我自己写的,就是采用最近比次近小于0.8即为合适的匹配,这种匹配方式
  40. //openCV中并没有,所以我就自己写了
  41. Match_feature(feature_1,feature_2,feature_dis_1,feature_dis_2);
  42. printf( ”The number of features is %d\n” ,feature_1.size());
  43. printf( ”The number of the match features is %d\n” ,feature_dis_1.size());
  44. //从这里开始使用RANSAC方法进行运算
  45. //下面的程序都好无奈,所有的结构都只能转化成openCV的类型才能用openCV的函数。。
  46. Ptr<DescriptorMatcher> descriptor_matcher = DescriptorMatcher::create( ”BruteForce” ); //创建特征匹配器
  47. int count=feature_dis_1.size();
  48. //把特征点序列转化成openCV能够使用的类型
  49. vector<KeyPoint>keypoints1,keypoints2;
  50. KeyPoint keyp;
  51. for ( int i=0;i<count;i++)
  52. {
  53. keyp.pt.x=feature_dis_1[i].dx;
  54. keyp.pt.y=feature_dis_1[i].dy;
  55. keypoints1.push_back(keyp);
  56. keyp.pt.x=feature_dis_2[i].dx;
  57. keyp.pt.y=feature_dis_2[i].dy;
  58. keypoints2.push_back(keyp);
  59. }
  60. Mat descriptors1(count,FEATURE_ELEMENT_LENGTH, CV_32F);
  61. Mat descriptors2(count,FEATURE_ELEMENT_LENGTH, CV_32F);
  62. for ( int i=0; i<count; i++)
  63. {
  64. for ( int j=0;j<FEATURE_ELEMENT_LENGTH;j++)
  65. {
  66. descriptors1.at< float >(i,j)=feature_dis_1[i].descriptor[j];
  67. descriptors2.at< float >(i,j)=feature_dis_2[i].descriptor[j];
  68. }
  69. }
  70. Mat img_match;
  71. vector<DMatch> matches;
  72. descriptor_matcher->match( descriptors1, descriptors2, matches );
  73. Mat img_matches;
  74. drawMatches(src_1,keypoints1,src_2,keypoints2,matches,img_matches);
  75. //其实我前面已经完成匹配了,到这里,用openCV自带的方式重新匹配了一遍,并且显示了一下
  76. imshow( ”SIFT” ,img_matches);
  77. //imwrite(“F:\\ylab\\CSDN_image\\3.jpg”,img_matches);
  78. Mat p1(feature_dis_1.size(),2,CV_32F);
  79. Mat p2(feature_dis_1.size(),2,CV_32F);
  80. for ( int i=0;i<feature_dis_1.size();i++)
  81. {
  82. p1.at< float >(i,0)=feature_dis_1[i].dx;
  83. p1.at< float >(i,1)=feature_dis_1[i].dy;
  84. p2.at< float >(i,0)=feature_dis_2[i].dx;
  85. p2.at< float >(i,1)=feature_dis_2[i].dy;
  86. }
  87. // 用RANSAC方法计算F
  88. Mat m_Fundamental;
  89. // 上面这个变量是基本矩阵
  90. vector<uchar> m_RANSACStatus;
  91. // 上面这个变量已经定义过,用于存储RANSAC后每个点的状态
  92. //一开始使用findFundamentalMat函数,发现可以消除错误匹配,实现很好的效果,但是
  93. //就是函数返回值不是变换矩阵,而是没有什么用的基础矩阵
  94. m_Fundamental = findFundamentalMat(p1,p2,m_RANSACStatus,CV_FM_RANSAC);
  95. //这里使用findHomography函数,这个函数的返回值才是真正的变换矩阵
  96. Mat m_homography;
  97. vector<uchar> m;
  98. m_homography=findHomography(p1,p2,CV_RANSAC,3,m);
  99. //由变换矩阵,求得变换后的物体边界四个点
  100. std::vector<Point2f> scene_corners(4);
  101. perspectiveTransform( obj_corners, scene_corners, m_homography);
  102. line( src_2, scene_corners[0] , scene_corners[1] , Scalar(0, 0, 255), 2 );
  103. line( src_2, scene_corners[1] , scene_corners[2] , Scalar(0, 0, 255), 2 );
  104. line( src_2, scene_corners[2] , scene_corners[3] , Scalar(0, 0, 255), 2 );
  105. line( src_2, scene_corners[3] , scene_corners[0] , Scalar(0, 0, 255), 2 );
  106. int nr=m_Fundamental.rows; // number of rows
  107. int nc=m_Fundamental.cols *m_Fundamental.channels(); // total number of elements per line
  108. // 计算野点个数
  109. int OutlinerCount = 0;
  110. for ( int i=0; i<Count; i++)
  111. {
  112. if (m_RANSACStatus[i] == 0) // 状态为0表示野点
  113. {
  114. OutlinerCount++;
  115. }
  116. }
  117. // 计算内点
  118. vector<Point2f> m_LeftInlier;
  119. vector<Point2f> m_RightInlier;
  120. vector<DMatch> m_InlierMatches;
  121. // 上面三个变量用于保存内点和匹配关系
  122. int ptCount = ( int )matches.size();
  123. int InlinerCount = ptCount - OutlinerCount;
  124. m_InlierMatches.resize(InlinerCount);
  125. m_LeftInlier.resize(InlinerCount);
  126. m_RightInlier.resize(InlinerCount);
  127. InlinerCount = 0;
  128. for ( int i=0; i<ptCount; i++)
  129. {
  130. if (m_RANSACStatus[i] != 0)
  131. {
  132. m_LeftInlier[InlinerCount].x = p1.at< float >(i, 0);
  133. m_LeftInlier[InlinerCount].y = p1.at< float >(i, 1);
  134. m_RightInlier[InlinerCount].x = p2.at< float >(i, 0);
  135. m_RightInlier[InlinerCount].y = p2.at< float >(i, 1);
  136. m_InlierMatches[InlinerCount].queryIdx = InlinerCount;
  137. m_InlierMatches[InlinerCount].trainIdx = InlinerCount;
  138. InlinerCount++;
  139. }
  140. }
  141. //   //printf(“最终的匹配点个数为:%d\n”,InlinerCount);
  142. 把内点转换为drawMatches可以使用的格式
  143. vector<KeyPoint> key1(InlinerCount);
  144. vector<KeyPoint> key2(InlinerCount);
  145. KeyPoint::convert(m_LeftInlier, key1);
  146. KeyPoint::convert(m_RightInlier, key2);
  147. // 显示计算F过后的内点匹配
  148. //Mat m_matLeftImage;
  149. //Mat m_matRightImage;
  150. // 以上两个变量保存的是左右两幅图像
  151. line(src_1,m1,m2,Scalar(0,255,0),2);
  152. line(src_1,m2,m3,Scalar(0,255,0),2);
  153. line(src_1,m3,m4,Scalar(0,255,0),2);
  154. line(src_1,m4,m1,Scalar(0,255,0),2);
  155. Mat OutImage;
  156. drawMatches(src_1, key1, src_2, key2, m_InlierMatches, OutImage);
  157. imshow( ”SIFT_RANSAC” ,OutImage);
  158. //imwrite(“F:\\ylab\\CSDN_image\\5.jpg”,OutImage);
  159. cvWaitKey( 0 );
  160. return 0;
  161. }
3、cvShowImage:在一个已创建好的窗口中显示图像; 4、cvWaitKey:使程序暂停,等待用户触发一个按键操作; 5、cvReleaseImage:释放图像文件所分配的内存; 6、cvDestroyWindo
这频率是每半个月一课啊,每周一课要改名了八!哈哈哈 http://blog.sina.com.cn/s/blog_4298002e01013w9a.html OpenCV在未知相机内参数情况下的立体图像矫正方法及注意事项 http://blog.sina.com.cn/s/blog_4298002e01013yb8.html
SIFT 算法 是目前公认的效果最好的特征点检测 算法 ,关于该 算法 的就不多说了,网上的资料有很多,在此提供两个链接,一个是 SIFT 原文的译文,一个是关于 SIFT 算法 的详细解释: SIFT 算法 译文 SIFT 算法 详解 整个实现过程可以复述如下:提供两张初始图片,一幅为模板图像,一幅为测试图片,目的就是根据模板图片中的物体,检测出测试图片中的物体,并表示出物体的具体位置和大小,测试图片中的物体位
http://hi.baidu.com/zhongdudu/blog/item/8f6b242424e53833c995597f.html 关于Opencv的一些内容, 可以访问该博客的其他内容. OpenCV 图像处理常用函数 2007-02-25 12
RANSAC(RANdom SAmple Consensus随机抽样一致)通过反复选择数据中的一组随机子集来达成目标。被选取的子集被假设为局内点,并用下述方法进行验证: 1.有一个模型适应于假设的局内点,即所有的未知参数都能从假设的局内点计算得出。(求解仿射变换,至少需要三个点) 2.用1中得到的模型去测试所有的其它数据,如果某个点适用于估计的模型,认为它也是局内点。 3.如果有足够多的点被归...
首先需要把cmakelists补全: 运行报错:terminate called after throwing an instance of ‘std::logic_error’ what(): basic_string::_M_construct null not valid 解决方法: 打开终端创建build 需要输入图片路径,否则是空指针 之后发现报错: Failed to load module “canberra-gtk-module” 解决方法: 在终端输入: sudo apt-get ins