OpenCV下的SURF描述子匹配
2016-11-13 11:30
423 查看
下面利用OpenCV提取图像的SURF描述子并进行匹配的程序和运行结果:
#include <stdio.h>
#include "opencv2/core/core.hpp"
#include "opencv2/features2d/features2d.hpp"
#include "opencv2/highgui/highgui.hpp"
#include "opencv2/nonfree/nonfree.hpp"
using namespace cv;
int main()
{
Mat img1 = imread("G01.bmp", CV_LOAD_IMAGE_GRAYSCALE);
Mat img2 = imread("G02.bmp", CV_LOAD_IMAGE_GRAYSCALE);
if(img1.empty() || img2.empty())
{
printf("Can't read one of the images\n");
return -1;
}
// 检测SURF特征点
SurfFeatureDetector detector(400);
vector<KeyPoint> keypoints1, keypoints2;
detector.detect(img1, keypoints1);
detector.detect(img2, keypoints2);
// 生成SURF描述子
SurfDescriptorExtractor extractor;
Mat descriptors1, descriptors2;
extractor.compute(img1, keypoints1, descriptors1);
extractor.compute(img2, keypoints2, descriptors2);
// 描述子匹配
BFMatcher matcher(NORM_L2);
vector<DMatch> matches;
matcher.match(descriptors1, descriptors2, matches);
// 结果显示
namedWindow("matches", 1);
Mat img_matches;
drawMatches(img1, keypoints1, img2, keypoints2, matches, img_matches);
imshow("matches", img_matches);
waitKey(0);
return 0;
}
运行结果如下:
匹配结果:
首先,读取两幅图像并判断是否读取成功:
Mat img1 = imread("G01.bmp", CV_LOAD_IMAGE_GRAYSCALE);
Mat img2 = imread("G02.bmp", CV_LOAD_IMAGE_GRAYSCALE);
if(img1.empty() || img2.empty())
{
printf("Can't read one of the images\n");
return -1;
}
接下来是特征点检测:
// 检测SURF特征点
SurfFeatureDetector detector(400);
vector<KeyPoint> keypoints1, keypoints2;
detector.detect(img1, keypoints1);
detector.detect(img2, keypoints2);
首先,实例化一个特征点检测器。所有特征点检测器均派生自抽象基类FeatureDetector,但构造函数依赖于算法。每个检测器的第一个参数通常用来控制特征点数量与稳定性之间的平衡。不同的特征点检测器的取值范围是不同的。SURF阈值应用于Hessian图像,其检测器的第一个参数的取值通常需要大于100。
下面实例化一个SURF描述子提取实例:
// 生成SURF描述子
SurfDescriptorExtractor extractor;
Mat descriptors1, descriptors2;
extractor.compute(img1, keypoints1, descriptors1);
extractor.compute(img2, keypoints2, descriptors2);
大多数OpenCV描述子继承自DescriptorExtractor抽象接口。然后计算每个特征点的描述子。DescriptorExtractor::compute的输出Mat的第i行含有第i个特征点的描述子。值得注意的是,该方法可通过删除没有定义描述子的特征点(接近图像边界的特征点)修改特征点向量。该方法保证了输出的特征点和描述子是一致的(特征点的数目等于描述符的行数)。
经过如上处理后,即得到图像特征点描述子,下面对描述子进行匹配:
// 描述子匹配
BFMatcher matcher(NORM_L2);
vector<DMatch> matches;
matcher.match(descriptors1, descriptors2, matches);
首先,为图像2的每一个描述子创建一个匹配器,并从图像1采用欧氏度量穷举搜索最近的描述符。输出向量matches包含成对的相应点的索引。
最后,是关于匹配结果的可视化:
// 结果显示
namedWindow("matches", 1);
Mat img_matches;
drawMatches(img1, keypoints1, img2, keypoints2, matches, img_matches);
imshow("matches", img_matches);
waitKey(0);
#include <stdio.h>
#include "opencv2/core/core.hpp"
#include "opencv2/features2d/features2d.hpp"
#include "opencv2/highgui/highgui.hpp"
#include "opencv2/nonfree/nonfree.hpp"
using namespace cv;
int main()
{
Mat img1 = imread("G01.bmp", CV_LOAD_IMAGE_GRAYSCALE);
Mat img2 = imread("G02.bmp", CV_LOAD_IMAGE_GRAYSCALE);
if(img1.empty() || img2.empty())
{
printf("Can't read one of the images\n");
return -1;
}
// 检测SURF特征点
SurfFeatureDetector detector(400);
vector<KeyPoint> keypoints1, keypoints2;
detector.detect(img1, keypoints1);
detector.detect(img2, keypoints2);
// 生成SURF描述子
SurfDescriptorExtractor extractor;
Mat descriptors1, descriptors2;
extractor.compute(img1, keypoints1, descriptors1);
extractor.compute(img2, keypoints2, descriptors2);
// 描述子匹配
BFMatcher matcher(NORM_L2);
vector<DMatch> matches;
matcher.match(descriptors1, descriptors2, matches);
// 结果显示
namedWindow("matches", 1);
Mat img_matches;
drawMatches(img1, keypoints1, img2, keypoints2, matches, img_matches);
imshow("matches", img_matches);
waitKey(0);
return 0;
}
运行结果如下:
匹配结果:
首先,读取两幅图像并判断是否读取成功:
Mat img1 = imread("G01.bmp", CV_LOAD_IMAGE_GRAYSCALE);
Mat img2 = imread("G02.bmp", CV_LOAD_IMAGE_GRAYSCALE);
if(img1.empty() || img2.empty())
{
printf("Can't read one of the images\n");
return -1;
}
接下来是特征点检测:
// 检测SURF特征点
SurfFeatureDetector detector(400);
vector<KeyPoint> keypoints1, keypoints2;
detector.detect(img1, keypoints1);
detector.detect(img2, keypoints2);
首先,实例化一个特征点检测器。所有特征点检测器均派生自抽象基类FeatureDetector,但构造函数依赖于算法。每个检测器的第一个参数通常用来控制特征点数量与稳定性之间的平衡。不同的特征点检测器的取值范围是不同的。SURF阈值应用于Hessian图像,其检测器的第一个参数的取值通常需要大于100。
下面实例化一个SURF描述子提取实例:
// 生成SURF描述子
SurfDescriptorExtractor extractor;
Mat descriptors1, descriptors2;
extractor.compute(img1, keypoints1, descriptors1);
extractor.compute(img2, keypoints2, descriptors2);
大多数OpenCV描述子继承自DescriptorExtractor抽象接口。然后计算每个特征点的描述子。DescriptorExtractor::compute的输出Mat的第i行含有第i个特征点的描述子。值得注意的是,该方法可通过删除没有定义描述子的特征点(接近图像边界的特征点)修改特征点向量。该方法保证了输出的特征点和描述子是一致的(特征点的数目等于描述符的行数)。
经过如上处理后,即得到图像特征点描述子,下面对描述子进行匹配:
// 描述子匹配
BFMatcher matcher(NORM_L2);
vector<DMatch> matches;
matcher.match(descriptors1, descriptors2, matches);
首先,为图像2的每一个描述子创建一个匹配器,并从图像1采用欧氏度量穷举搜索最近的描述符。输出向量matches包含成对的相应点的索引。
最后,是关于匹配结果的可视化:
// 结果显示
namedWindow("matches", 1);
Mat img_matches;
drawMatches(img1, keypoints1, img2, keypoints2, matches, img_matches);
imshow("matches", img_matches);
waitKey(0);
相关文章推荐
- opencv3 环境安装及实验surf特征的描述符匹配文章整理
- opencv3中FLANN结合SURF进行关键点的描述和匹配
- opencv3.2 SURF实现特征点匹配
- Java基于OpenCV的Surf特征检测与匹配
- 【OpenCV】OpenCV3中的SURF特征点的寻找和匹配
- opencv之SURF特征点提取及匹配
- surf匹配算法opencv示例代码
- OpenCV图像匹配算法之surf
- 【OpenCV】SURF算法之视频图像实时特征点匹配
- 求VC6.0中用MFC编写的SURF算法匹配程序,可以用到opencv
- OpenCV之feature2d 模块. 2D特征框架(2)特征描述 使用FLANN进行特征点匹配 使用二维特征点(Features2D)和单映射(Homography)寻找已知物体 平面物体检测
- OpenCV中feature2D学习——FAST特征点检测与SIFT/SURF/BRIEF特征提取与匹配
- OpenCV实现摄像机标定和像素转换,surf寻找特征点,FLANN匹配算子进行匹配
- opencv3.2——小试牛刀(1):使用鼠标选择ROI进行SURF匹配
- Opencv Surf算子中keyPoints,描述子Mat矩阵,配对向量DMatch里都包含了哪些好玩的东东?
- opencv图像特征检测及匹配(harris,sift,surf,fast,breif,orb,BFmatch,FlannBasedMatcher)
- opencv3/C++ 描述符匹配
- opencv之SURF图像匹配
- Opencv下利用SIFT、SURF、ORB三种特征点实现图像匹配
- OpenCV中feature2D学习——SIFT和SURF算子实现特征点提取与匹配