2016-06-25 6 views
0

나는 C 사진에 주어진 이미지 (로고)를 찾는 ++ 프로그램을 작성하기 위해 노력하고있어에서 로고를 찾아 여기에서 코드를 사용했습니다 : http://docs.opencv.org/2.4/doc/tutorials/features2d/feature_homography/feature_homography.html이미지

그래서, 나는 두 이미지를 가지고 - 하나입니다 로고, 다른 하나는 그것을 포함하고 있지 않습니다. 로고를 회전하거나 크기를 조정하거나 부분적으로 덮을 수 있습니다. 그러나 지금은 어떤 경우에도 만족스러운 결과를 얻기 위해 노력하고 있지만 두 개의 동일한 이미지를 비교하는 경우입니다. 지금까지 제 결과는 끔찍한 것이 아닙니다. enter image description here BMW 로고와 로고 및 일부 추상 그림이 포함 된 이미지가 있습니다. 일치는 절망적 인 것처럼 보입니다. 이 작업을 더 잘 수행하는 방법에 대한 아이디어 나 제안을 보내 주시면 감사하겠습니다. 코드 나 실행 해요 :

#include <stdio.h> 
#include <iostream> 
#include <stdio.h> 
#include <iostream> 
#include "opencv2/core.hpp" 
#include "opencv2/features2d.hpp" 
#include "opencv2/imgcodecs.hpp" 
#include "opencv2/highgui.hpp" 
#include "opencv2/xfeatures2d.hpp" 
#include <opencv2/imgproc/imgproc.hpp> 
#include <opencv2/calib3d.hpp> 


using namespace std; 
using namespace cv; 
using namespace cv::xfeatures2d; 


int main(){ 

    Mat img_object = imread("bmw_logo.jpg", CV_LOAD_IMAGE_GRAYSCALE); 
    Mat img_scene = imread("bmw_search.jpg", CV_LOAD_IMAGE_GRAYSCALE); 
    resize(img_object, img_object, Size(img_object.cols/2, img_object.rows/2)); 
    resize(img_scene, img_scene, Size(img_scene.cols/2, img_scene.rows/2)); 


    if (!img_object.data || !img_scene.data){ 
     std::cout << " --(!) Error reading images " << std::endl; return -1; 
    } 

    //-- Step 1: Detect the keypoints using SURF Detector 
    int minHessian = 400; 

    Ptr<SURF> detector = SURF::create(minHessian); 
    std::vector<KeyPoint> keypoints_object, keypoints_scene; 

    detector->detect(img_object, keypoints_object); 
    detector->detect(img_scene, keypoints_scene); 

    //-- Step 2: Calculate descriptors (feature vectors) 
    Ptr<SURF> extractor = SURF::create(minHessian); 

    Mat descriptors_object, descriptors_scene; 

    extractor->compute(img_object, keypoints_object, descriptors_object); 
    extractor->compute(img_scene, keypoints_scene, descriptors_scene); 

    //-- Step 3: Matching descriptor vectors using FLANN matcher 
    FlannBasedMatcher matcher; 
    std::vector<DMatch> matches; 
    matcher.match(descriptors_object, descriptors_scene, matches); 

    double max_dist = 0; double min_dist = 100; 

    //-- Quick calculation of max and min distances between keypoints 
    for (int i = 0; i < descriptors_object.rows; i++){ 
     double dist = matches[i].distance; 
     if (dist < min_dist) min_dist = dist; 
     if (dist > max_dist) max_dist = dist; 
    } 

    printf("-- Max dist : %f \n", max_dist); 
    printf("-- Min dist : %f \n", min_dist); 

    //-- Draw only "good" matches (i.e. whose distance is less than 3*min_dist) 
    std::vector<DMatch> good_matches; 

    for (int i = 0; i < descriptors_object.rows; i++) { 
     if (matches[i].distance < 3 * min_dist) { 
      good_matches.push_back(matches[i]); 
     } 
    } 

    Mat img_matches; 
    drawMatches(img_object, keypoints_object, img_scene, keypoints_scene, 
     good_matches, img_matches, Scalar::all(-1), Scalar::all(-1), 
     vector<char>(), DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS); 

    //-- Localize the object 
    std::vector<Point2f> obj; 
    std::vector<Point2f> scene; 

    for (int i = 0; i < good_matches.size(); i++) { 
     //-- Get the keypoints from the good matches 
     obj.push_back(keypoints_object[good_matches[i].queryIdx].pt); 
     scene.push_back(keypoints_scene[good_matches[i].trainIdx].pt); 
    } 

    Mat H = findHomography(obj, scene, CV_RANSAC); 

    //-- Get the corners from the image_1 (the object to be "detected") 
    std::vector<Point2f> obj_corners(4); 
    obj_corners[0] = cvPoint(0, 0); obj_corners[1] = cvPoint(img_object.cols, 0); 
    obj_corners[2] = cvPoint(img_object.cols, img_object.rows); obj_corners[3] = cvPoint(0, img_object.rows); 
    std::vector<Point2f> scene_corners(4); 

    perspectiveTransform(obj_corners, scene_corners, H); 

    //-- Draw lines between the corners (the mapped object in the scene - image_2) 
    line(img_matches, scene_corners[0] + Point2f(img_object.cols, 0), scene_corners[1] + Point2f(img_object.cols, 0), Scalar(0, 255, 0), 4); 
    line(img_matches, scene_corners[1] + Point2f(img_object.cols, 0), scene_corners[2] + Point2f(img_object.cols, 0), Scalar(0, 255, 0), 4); 
    line(img_matches, scene_corners[2] + Point2f(img_object.cols, 0), scene_corners[3] + Point2f(img_object.cols, 0), Scalar(0, 255, 0), 4); 
    line(img_matches, scene_corners[3] + Point2f(img_object.cols, 0), scene_corners[0] + Point2f(img_object.cols, 0), Scalar(0, 255, 0), 4); 

    //-- Show detected matches 
    imshow("Good Matches & Object detection", img_matches); 

    waitKey(0); 
    return 0; 
} 

답변

0

당신 만이 로고인지 아닌지 알아내는 걱정하는 경우, Cascade Classification를 사용하는 것이 좋습니다 것입니다. 개체 기능과 일치시키는 것은 원하는대로 할 수있는 방법이 아닙니다.

로고 및 로고가 포함되지 않은 이미지의 경우 긍정적 인 이미지를 수집하고 분류자를 대신하여 작업을 수행해야합니다. 물론 캐스케이드 분류기에 대한 자세한 내용을 보려면 캐스케이드 분류자를 읽을 수 있습니다.

+0

고맙습니다. 제가 링크를 게시 한 튜토리얼은 이미지 매칭의 결과와 함께 사진을 가지고 있으며, 꽤 잘 작동하는 것처럼 보였습니다. 이것이 제가 필요로하는 바로 그 것이라고 생각하게 만들었습니다. –

+0

환영합니다. 내부적으로 분류기는 이미지 기능도 사용하지만 예상되는 변경 사항과 같이 처리해야 할 많은 문제가 있습니다. 그 이유는 다양한 크기, 로고가 예상되는 로고 이미지의 데이터 세트를 준비해야하기 때문입니다 . 그 사이에 분류기는 당신을 위해 자기 자신과 일치하는 돌볼 것입니다. –