opencv_SVM学习(二)
2018-01-05 22:32
423 查看
这一次主要是实践部分.首先还是贴出源码.
得到的结果如下图所示
int labels
= { -1, 1, 1, -1,1,-1,1,1 };
这里的n要与训练样本的数目相等,于是你这里需要设置8个标签,不能因为分两类你就设置为int labels
= { -1, 1 };否则在调用train的时候会报错。
可以看到,我这里设置了5个为1的标签,于是结果里出现了5个黑点,相应的就有3个白点。
注意:当你改变n时,比如我让n=6,那么相应的标签可以设置为
int labels
= { -1, 1, 1, -1,1,-1 };
那么,对应的结果就应该有三个黑点和三个白点。那么,验证一下
猜想是正确的。
这里我依旧不明白这里输出的支持向量是啥意思。。
代码注释:
我这里用下面的代码片来产生n个0-512不同的随机数序列1和序列2,放到vector容器里,为方便调试,可以将注释部分去掉来观察结果。然后,将这些数据放到trainingData的二维数组中,这样,就可以产生一组随机的训练样本点。同样,也可以观察trainingData里面的内容,看看想要的结果是不是对的。
结果如图:
剩下的应该就没别的问题了。。那来做个分三类的试试。。
赚点积分。。源码下载地址:
http://download.csdn.net/download/csdn_dzh/10190986
下面是试验结果:
从结果又可以看到,这里输出了3个支持向量。。这到底是个什么东西- -求解答
#include<opencv2\opencv.hpp> #include <vector> #include<iostream> using namespace std; using namespace cv; #define n 8 //n个训练样本 int main() { //【1】 设置标签 int labels = { -1, 1, 1, -1,1,-1,1,1 };//这里比如说有n组训练数据,那么这里标签的大小就应该是n,那么,如何确定这里1和-1的个数呢? Mat labelsMat(n, 1, CV_32SC1, labels); //【2】 产生随机训练数据 //【2.1】首先分别产生n个0-512不同的随机数序列1和序列2 vector<float> x; vector<float> y; for (int i = 0; i < n; i++) { x.push_back(rand() % 512); y.push_back(rand() % 512); } //【2.1】调试,输出x,y数组元素看一下 //for (int i = 0; i < x.size(); i++) //{ // cout << x[i] << " "; //} //cout << endl; //for (int i = 0; i < y.size(); i++) //{ // cout << y[i] << " "; //} //cout << endl; //【2.2】把生成的数放到训练数据中 float trainingData [2]; for (int i = 0; i < n; i++) { trainingData[i][0] = { x[i] }; trainingData[i][1] = { y[i] }; } //for (int i = 0; i < n; i++) //{ // for (int j = 0; j < 2; j++) // { // cout << trainingData[i][j] << " "; // } // cout << endl; //} Mat trainingDataMat(n, 2, CV_32FC1, trainingData); //【3】训练初始化 Ptr<cv::ml::SVM> svm = cv::ml::SVM::create(); svm->setType(cv::ml::SVM::C_SVC); svm->setKernel(cv::ml::SVM::LINEAR); svm->setC(2.67); svm->setGamma(5.383); svm->setTermCriteria(TermCriteria(TermCriteria::MAX_ITER, 100, 1e-6)); //【4】开始训练 svm->train(trainingDataMat, cv::ml::ROW_SAMPLE, labelsMat); //【5】可视化 int image_width = 512; int image_height = 512; Mat imageshow = Mat::zeros(image_height, image_width, CV_8UC3); //【5.1】分类 Vec3b blue(255, 0, 0);//类别1 Vec3b green(0, 255, 0);//类别2 for (int i = 0; i < imageshow.rows; i++) { for (int j = 0; j < imageshow.cols; j++) { Mat sampleMat = (Mat_<float>(1, 2) << j, i); float response = svm->predict(sampleMat); if (response == 1) imageshow.at<Vec3b>(i, j) = blue; if (response == -1) imageshow.at<Vec3b>(i, j) = green; } } //【5.2】绘制训练点 int thickness = -1; int lineType = 8; Scalar color1 = Scalar::all(0); //标记为1的显示成黑点 Scalar color2 = Scalar::all(255); //标记成-1的显示成白点 for (int i = 0; i < labelsMat.rows; i++) { const float* v = trainingDataMat.ptr<float>(i); //取出每行的头指针 if (labels[i] == 1) circle(imageshow, Point((int)v[0], (int)v[1]), 5, color1, thickness, lineType); if (labels[i] == -1) circle(imageshow, Point((int)v[0], (int)v[1]), 5, color2, thickness, lineType); } imshow("SVM显示", imageshow); //【5.3】输出支持向量 Mat sv = svm->getSupportVectors(); cout << "支持向量为:" << endl; for (int i = 0; i < sv.rows; ++i) { const float* v = sv.ptr<float>(i); cout << v[0] << " " << v[1] << endl; } //【6】给出测试样本判断其类别 Mat result; float testData[2][2] = { { 20, 11 }, { 310, 411 } }; Mat query(2, 2, CV_32FC1, testData); svm->predict(query, result); cout << "分类结果为:" << endl; cout << result; waitKey(-1); return 0; }
得到的结果如下图所示
结果分析
可以看到,我在一开始的时候假设有8个训练样本(n=8),于是设置了int labels
= { -1, 1, 1, -1,1,-1,1,1 };
这里的n要与训练样本的数目相等,于是你这里需要设置8个标签,不能因为分两类你就设置为int labels
= { -1, 1 };否则在调用train的时候会报错。
可以看到,我这里设置了5个为1的标签,于是结果里出现了5个黑点,相应的就有3个白点。
注意:当你改变n时,比如我让n=6,那么相应的标签可以设置为
int labels
= { -1, 1, 1, -1,1,-1 };
那么,对应的结果就应该有三个黑点和三个白点。那么,验证一下
猜想是正确的。
这里我依旧不明白这里输出的支持向量是啥意思。。
代码注释:
我这里用下面的代码片来产生n个0-512不同的随机数序列1和序列2,放到vector容器里,为方便调试,可以将注释部分去掉来观察结果。然后,将这些数据放到trainingData的二维数组中,这样,就可以产生一组随机的训练样本点。同样,也可以观察trainingData里面的内容,看看想要的结果是不是对的。
//【2】 产生随机训练数据 //【2.1】首先分别产生n个0-512不同的随机数序列1和序列2 vector<float> x; vector<float> y; for (int i = 0; i < n; i++) { x.push_back(rand() % 512); y.push_back(rand() % 512); } //【2.1】调试,输出x,y数组元素看一下 //for (int i = 0; i < x.size(); i++) //{ // cout << x[i] << " "; //} //cout << endl; //for (int i = 0; i < y.size(); i++) //{ // cout << y[i] << " "; //} //cout << endl; //【2.2】把生成的数放到训练数据中 float trainingData [2]; for (int i = 0; i < n; i++) { trainingData[i][0] = { x[i] }; trainingData[i][1] = { y[i] }; } //for (int i = 0; i < n; i++) //{ // for (int j = 0; j < 2; j++) // { // cout << trainingData[i][j] << " "; // } // cout << endl; //}
结果如图:
剩下的应该就没别的问题了。。那来做个分三类的试试。。
赚点积分。。源码下载地址:
http://download.csdn.net/download/csdn_dzh/10190986
下面是试验结果:
从结果又可以看到,这里输出了3个支持向量。。这到底是个什么东西- -求解答
相关文章推荐
- 学习OpenCV——SVM
- Opencv Python版学习笔记(八)字符识别-分类器(SVM,KNearest,RTrees,Boost,MLP)
- 我的OpenCV学习笔记(六):使用支持向量机(SVM)
- OpenCv学习笔记--支持向量机SVM线性可分情况下的OpenCv实现的超详细注释(2)
- 【OpenCV学习笔记 015】SVM图像分类
- 学习OpenCV——SVM 手写数字检测
- 我的OpenCV学习笔记(六):使用支持向量机(SVM)
- opencv学习笔记-----使用SVM做行人判断
- 学习Opencv2.4.9(四)---SVM支持向量机
- 【OpenCV】基于HOG与SVM的行人检测学习
- 在opencv3中实现机器学习之:利用svm(支持向量机)分类
- 学习SVM(一) SVM模型训练与分类的OpenCV实现
- 学习OpenCV——HOG+SVM
- OpenCv学习笔记--支持向量机SVM之C++的实现(1)
- opencv机器学习 Haar特征 LBP特征 adaboost集成学习 级联分类器 支持向量机SVM 主成分分析PCA 人工神经网络(ANN) 笑脸检测 SVM分类 笑脸 检测
- 学习OpenCV——HOG+SVM
- 学习OpenCV——HOG+SVM
- opencv的svm学习_字符识别
- OpenCV学习笔记(三):解释支持向量机(SVM)Emamples
- opencv_SVM学习(一)