您的位置:首页 > 其它

二值化的SIFT特征描述子及图像拼接优化

2017-11-15 14:57 507 查看
http://www.cjig.cn/html/jig/2016/12/20161204.htm

二值化的SIFT特征描述子及图像拼接优化


李倩, 江泽涛

桂林电子科技大学计算机与信息安全学院, 桂林 541004

收稿日期: 2016-05-16; 修回日期: 2016-08-30
基金项目: 国家自然科学基金项目(61272216,61572147);桂林电子科技大学图像图形智能处理重点实验项目(GIIP201501,GIIP201401);广西可信软件重点实验室项目(kx201502)
第一作者简介: 李倩(1990-),女,桂林电子科技大学计算机科学与技术专业硕士研究生,主要研究方向为计算机视觉、图像处理等。E-mail:shjliqian@163.com
中图法分类号: TP391
文献标识码: A
文章编号: 1006-8961(2016)12-1593-09


摘要

目的 针对SIFT算法计算复杂度高、存储开销大和近几年提出的BRIEF(binary robust independent elementary features)、ORB(oriented BRIEF)、BRISK(binary robust invariant scalable keypoints)和FREAK(fast
retina keypoint)等二进制描述子可区分性弱和鲁棒性差的问题,提出基于SIFT的二进制图像局部特征描述子。 方法 首先,对传统SIFT的特征空间和特征向量分布在理论和实验上进行分析,在此基础上结合二进制特征描述子的优势对SIFT进行改进。不同于传统的二进制特征描述子,本文算法对传统SIFT特征向量在每一维上的分量进行排序后,以该特征向量的中值作为量化阈值,将高维浮点型SIFT特征向量转化成位向量得到二进制特征描述子。并使用易于计算的汉明距离代替欧氏距离度量特征点间的相似性以提高匹配效率。然后,在匹配阶段将二进制特征描述子分为两部分并分别对其进行匹配,目的是通过初匹配剔除无效匹配特征点来进一步缩短匹配时间。最后,对提出的量化算法的可区分性及鲁棒性进行验证。 结果 该量化算法在保持SIFT的较强的鲁棒性和可区分性的同时,达到了低存储、高匹配效率的要求,解决了SIFT算法的计算复杂度高、二进制描述子鲁棒性和可区分性差的问题。此外,在匹配阶段平均剔除了77.5%的无效匹配特征点,减少了RANSAC(random
sample consensus)的迭代次数。 结论 本文提出的量化算法可用于快速匹配和快速图像拼接中,提高匹配和拼接效率。


关键词

SIFT(scale invariant feature transform); 二进制特征描述子; 鲁棒性; 可区分性; 快速图像拼接

Binary quantized SIFT feature descriptors for optimized image stitching


Li
Qian, Jiang Zetao

College of Computer and Information Security, Guilin University of Electronic Technology, Guilin 541004, China
Supported by: Supported by:National Natural Science Foundation of China (61272216, 61572147)


Abstract

Objective A novel binary local feature descriptor based on SIFT is proposed to avoid disadvantages such as high computational cost and large memory cost of SIFT,
and low discriminative power and robustness from binary-valued descriptors such as BRIEF, ORB, BRISK, and FREAK. Method Traditional SIFT feature space and distribution of feature vectors are analyzed theoretically and experimentally. Based
on the results, the SIFT algorithm is improved by combining the advantages of binary descriptors. Different from traditional binary descriptors, each component of the SIFT feature vector is sorted by magnitude, and median values are selected as quantization
thresholds to transform the high-dimensional floating point SIFT feature vector to a bit vector. Similarity between key points is evaluated by the Hamming distance instead of the Euclidean distance to improve matching efficiency. Then, the binary descriptor
is divided into two parts that are matched at the matching stage. The purpose is to eliminate invalid matching feature points to further reduce matching time. Extensive experiments on large databases demonstrate the strong discriminative power and robustness
of our quantization methods. Resuls The binary feature descriptor proposed considers low memory cost and high matching efficiency while maintaining the strong discriminative power and robustness. The descriptor proposed solves the computational
complexity from SIFT and the low discriminative power and robustness from binary descriptors. Moreover, an average of 77.5% invalid matching key points is eliminated to reduce the number of iterations of RANSAC. Conclusion The proposed quantization
algorithm can be used for fast image matching and fast image stitching to improve the efficiency of matching and stitching.


Key words

SIFT(scale invariant feature transform); binary
feature descriptors; robustness; discriminative power;fast
image stitching


0 引 言

图像拼接质量的好坏主要取决于图像配准的精度。一种鲁棒性好且匹配效率高的图像局部特征描述子是图像配准技术的关键,它的稳定性和匹配效率直接影响到特征配准的效果,进而影响到图像拼接的质量和效率。
Mikolajczyk等人对各种局部描述子进行系统比较,表明SIFT(scale invariant feature transform)[1]是最出色的局部描述算子[2]。传统SIFT提取出的特征点具有很高的稳定性,它采用浮点型描述子描述图像特征。虽然这类描述子对尺度、旋转、光照、图像模糊等图像变换具有较好的鲁棒性和可区分性,在大多数情况下具有较高的匹配率。但由于其特征向量是高维的浮点数,并且用欧氏距离作为特征点之间的度量准则,这将导致巨大的存储开销和计算量,限制了其应用范围[3]。为降低SIFT特征向量的高维性和减少计算时间,Ke等人[4]对SIFT算法进行主成分分析(PCA)提出PCA-SIFT算法,该算法相对于SIFT在运行时间和仿射变化上的性能有所提升,但是对尺度变换和平滑模糊较敏感且计算量更大。Bay等人[5]提出SURF(speeded
up robust features)算法,它利用Haar小波来近似SIFT方法中的梯度操作,同时利用积分图技术进行快速计算,但它对旋转变换敏感。上述方法在提高速度的同时丢失了对尺度、旋转等图像变换的鲁棒性,也未从根本上解决高维浮点型特征向量的性能瓶颈问题。
近几年学者们采用二值化方式描述图像特征[6]。Calonder等人[7]提出BRIEF(binary
robust independent elementary features)特征描述算法,该算法利用局部图像邻域内随机点对的灰度大小关系来建立局部图像特征描述子,对噪声敏感;且BRIEF没有计算关键点的方向,因此不具备旋转不变性;也不具备尺度不变性。Rubee等人[8]试图对BRIEF噪声敏感、不具有旋转不变性的缺点进行改进,提出ORB(oriented
BRIEF)算法,它利用不变矩计算角点主方向,但当不变矩表示向量的模接近于0时,存在方向不稳定的情况。Leutenegger等人[9]提出一种旋转且尺度不变的二进制描述子BRISK(binary
robust invariant scalable keypoints),该算法在生成多尺度图像的基础上,提取AGAST(adaptive and generic corner detection based on the accelerated segment test)[10]特征点,但它只进行了局部非极大值抑制,没有去除边缘响应点。Alahi等人[11]受人眼视网膜系统的启发,提出FREAK(fast
retina keypoint)。以上二进制描述子共同的优点都是用一个比特串来表示,相对于浮点型的描述子,其存储空间大大减少;用汉明距离代替欧氏距离来度量特征点之间的相似性,汉明距离可通过描述子间的逻辑异或操作来完成,大大降低了计算复杂度[12]。然而,相对于传统的浮点型描述子,这些二进制描述子的可区分性和鲁棒性较差,在图像匹配的过程中易产生大量的误匹配,进而导致图像拼接效果不理想。
为了充分利用SIFT算子可区分性强、鲁棒性强和二进制描述子低存储、高匹配效率的优势,弥补SIFT算子和二进制描述子的不足,本文提出基于SIFT的二进制图像局部特征描述子。创新点主要有两个方面:
1) 对传统SIFT的特征空间和特征向量分布在理论和实验上进行分析,在此基础上结合二进制描述子低存储的优势对SIFT进行改进。对SIFT特征向量在每一维上的分量进行排序后,以该特征向量的中值作为量化阈值,将高维浮点型SIFT特征向量转化成位特征向量得到二进制特征描述子,利用汉明距离代替欧氏距离度量特征点间的相似性以提高匹配效率。并验证量化后的算法仍具有SIFT较强的可区分性和鲁棒性;
2) 为进一步缩短匹配时间,根据特征点邻域内的像素点对它的信息量贡献的多少,将描述子分为两个部分。先将描述子中对特征点信息量贡献较多的部分进行初匹配来剔除部分无效匹配特征点;对于筛选出来的特征点,再进一步对描述子中的另一部分进行匹配来得到最近邻和次近邻点。


1 传统SIFT特征


1.1 SIFT描述子

传统SIFT描述子是关键点邻域高斯图像梯度统计结果的一种表示,该算法利用特征点邻域像素的梯度信息估计特征点的主方向和获取特征描述子。对于任意一个特征点所在的尺度空间,将以特征点为中心的邻域均匀地分成4×4的子区域,计算子区域内每个像素点的梯度方向和梯度幅值,用高斯窗口对其进行加权并插值计算每个梯度方向的累加值后建立 8 个方向的梯度直方图。然后,分别对4×4个子区域的8个梯度信息根据位置依次排序,形成一个4×4×8=128维的特征向量,每一维对应梯度直方图中的一个bin,该特征向量就是SIFT描述子。最后,将SIFT特征向量进行归一化,减少光照变化的影响。


1.2 SIFT特征向量分布

对于SIFT特征向量对:fi=[fi,1,fi,2,…,fi,128]T,fj=[fj,1,fj,2,…,fj,128]T,其欧氏距离平方记为di,j2=$\sum\limits_{k=1}^{128}{{}}$(fi,k-fj,k)2。设Xi,j,k=(fi,k-fj,k)2,假设X.,k(k=1,2,…,128)
相互独立,根据李雅普诺夫中心极限定理,这些随机变量的和近似服从正态分布。
对3.81×108个特征点对间的欧氏距离平方进行统计(这些特征点对是从不同场景下(室内、室外)的大量图像组成的数据集中随机抽取所得到的),从图
1可以看出,它近似服从正态分布,和理论上的估计是一致的。













图 1 特征向量间的欧氏距离平方分布

Fig. 1 The distribution of the square of Euclidean distance between feature vectors


2 基于SIFT的二进制特征描述子


2.1 特征量化

对于传统SIFT,其特征向量的每个分量是一个0255之间的整数,在SIFT特征向量空间共有256128≈1.8×10308个不同的SIFT特征向量,巨大的数据量使得该特征空间具有较好的可区分性。而
SIFT描述子只利用了该特征空间的一小部分,就使得其具有较强的可区分性,这说明该特征空间存在冗余,可对其进行压缩。
本文对传统SIFT描述子进行量化。对于128维的浮点型SIFT特征向量f=[f1,f2,…,f128]T∈R128,fi∈R,(i=1,2,…,128)
。定义量化函数

${{b}_{i}}=\left\{ \begin{align} & \begin{matrix} 1 & {{f}_{i}}>K \\ \end{matrix} \\ & \begin{matrix} 0 & {{f}_{i}}\le K \\ \end{matrix} \\ \end{align} \right.i=1,2,\ldots ,128$(1)
把f转化为二进制特征向量b=[b1,b2,…,b128]T。K为阈值,本文选择特征向量f的中值作为阈值。原因如下:中值描述了一组数据的中心趋势,能够排除极端值的干扰,对数值的改变是相对稳定的;使用中值作为阈值,对每个SIFT特征向量的分量进行量化,量化结果为0/1是等概率的,能够实现熵最大化,将SIFT特征向量均匀地映射到二进制空间;经过量化的SIFT特征向量,在128维的二进制空间上共有2128=3.4×1038个不同的二进制向量。这个数据量足以使量化后的二进制特征向量仍具有传统SIFT较强的可区分性,且提高了特征空间的利用率。
如果量化后的二进制特征向量仍能够保持传统SIFT的可区分性,那么二进制特征向量间的汉明距离和传统SIFT特征向量间的欧氏距离平方的分布应保持一致性。为证明量化后的二进制特征向量仍具有SIFT特征向量较强的可区分性,对上述的3.81×108个特征点对间的汉明距离进行统计,得到如图
2所示的结果,可以看出,量化前的SIFT特征向量间的欧氏距离平方与量化后的二进制特征向量间的汉明距离具有相同的分布,均近似服从正态分布。













图 2 特征向量间的汉明距离分布

Fig. 2 The distribution of the Hamming distance between feature vectors

本文定义的量化函数也可以看做是一种基于哈希的方式,但不同于经典的LSH(locality sensitive hashing)[13]方法,LSH通过多个哈希函数把高维空间中的浮点型特征向量映射到汉明空间来获得二进制特征向量,它涉及多个哈希函数的运算,而该量化方法只使用了一个哈希函数,相对于LSH来说,运算更简便且效率更高。
在上述的数据集中随机抽取1.5×107个SIFT特征,对其特征向量的中值进行统计发现,大部分SIFT特征向量的中值相对较小,在13附近,图
3描述了SIFT特征向量的中值与特征点概率分布的关系。但是有些SIFT特征向量的分量达到了140左右,如图
4所示。因此,用上述提出的量化方法生成的描述子不能很好地区分较高范围内的特征分量,从而导致这部分的量化损失。为了避免这一问题,本文在较高的特征向量的分量范围内再取一个中值来增加这个范围内各分量的可区分性。即首先在整个128维特征向量中取一个中值,然后再在该中值以上的分量范围内取一个中值。













图 3 SIFT特征向量的中值与特征点概率分布关系

Fig. 3 The relationship between the median value of the SIFT descriptor and the probability distribution of feature points













图 4 某个SIFT特征向量在各维上的分量值的降序排列

Fig. 4 SIFT descriptor in the descending order of magnitude

定义量化函数为

$\begin{array}{l} ({b_i},{b_{i + 128}}) = \left\{ \begin{array}{l} \begin{array}{*{20}{c}} {\left( {1,1} \right)}&{{f_i} > {K_2}} \end{array}\\ \begin{array}{*{20}{c}} {\left( {1,0} \right)}&{{K_1} \le
{f_i} \le {K_2}} \end{array}\\ \begin{array}{*{20}{c}} {\left( {0,0} \right)}&{f \le {K_1}} \end{array} \end{array} \right.\\ i = 1,2, \ldots ,128 \end{array}$
(2)
[g1,g2,…,g128]T是特征向量[f1,f2,…,f128]T的降序排列。K1=g$\frac{d-1}{2}$,即g63;K2=g$\frac{\frac{d}{2}-1}{2}$,即g31。通过量化,128维浮点型SIFT特征向量f=[f1,f2,…,f128]T被量化为256位的二进制特征向量${\bar{b}}$=[b1,b2,…,b256]T。SIFT描述子被划分为3部分,每个部分采用2位进行编码。
通过对高维浮点型特征向量进行量化,得到的两种二进制描述子在存储开销上由传统SIFT的128×32=4 096 bits分别降低到了128 bits和256 bits,分别是传统SIFT算法的1/32和1/16,大大减少了存储开销。


2.2 特征配准

图像之间的特征匹配是寻找特征点的最近邻的过程,当匹配次数很大时,传统SIFT算法中浮点数之间的欧氏距离的计算量将达到很大,且存储开销很大。本文将高维浮点型特征向量量化成二进制特征向量后,高维浮点型特征向量间的比较可以转化为二进制特征向量间汉明距离的比较。
像素点距离特征点越近,和特征点的关系就越密切,对其贡献的梯度信息量就越大;反之,距离越远,关系就疏远,对特征点贡献的梯度信息量就越少。为进一步缩短匹配时间,把以特征点为中心的4×4子区域分为两部分:以特征点为中心的中间的2×2=4子块(如图
5所示的绿色线内)为一部分;剩余边缘的12个子块为一部分。特征点的描述子也随之被分成两部分:li=[li,0,li,1,…,li,31]=[bi,40,bi,41,…,bi,55,bi,72,bi,73,…,bi,87],hi=[hi,0,hi,1,…,hi,95]=[bi,0,bi,1,…,bi,39,bi,56,bi,57,…,bi,71,bi,88,bi,89,…,bi,127],分别代表以特征点为中心的中间的2×2=4个子块信息和边缘的12个子块信息。在进行特征匹配时,对于参考图像中的某个特征点,在待配准图像中先对描述子中代表中间2×2=4个子块信息的部分进行初步匹配来剔除无效匹配特征点。即:计算该部分描述子间的汉明距离,将计算结果和阈值(本文设置为12)
进行对比,如果大于阈值,则在初匹配时就剔除该特征点;否则,认为初匹配成功;对于筛选出来的特征点,进一步对描述子中代表边缘的12个子块信息的部分进行匹配。在待配准图像中寻找最近邻和次近邻点,如果两者的比值小于等于0.49(为和传统SIFT算法进行比较,设置为和传统SIFT算子相同的比值),则认为匹配成功;否则,则认为匹配失败。通过对特征点进行初步筛选,平均剔除了77.5%的无效匹配特征点。













图 5 以特征点(红色圆点代表特征点)为中心的4×4邻域内的梯度信息

Fig. 5 Gradient information of 4×4 subregions centered with keypoint (red dot represents keypoint)

Kd-Tree(K-dimensional tree)是一种分割k维空间的数据结构,主要应用于多维空间关键数据的搜索。为将Kd-Tree扩展到高维数据集上,Beis等人[14]提出Kd-Tree
with BBF(best bin first)算法,该算法能够实现近似K近邻的快速搜索,在保证一定查找精度的前提下使得查找速度加快。而穷举法查找最近邻的时间复杂度为O(n2),通过使用Kd-Tree算法查找近似最近邻的计算复杂度下降到O(nlog n)[14]因此,当特征点对的数量较少时,使用简单的穷举搜索法效率较高;但当特征点对的数量很大且维度较高时,穷举搜索的效率就会大打折扣。
在本文实验中,使用SIFT+Kd-Tree+BBF实现传统SIFT高维浮点型向量间的粗匹配;使用穷举搜索来实现量化算法BSIFT1和BSIFT2中二进制特征向量间的粗匹配(BSIFT的含义为:Binary
Quantized SIFT; BSIFT1表示本文提出的第1种量化方法;BSIFT2表示本文提出的第2种量化方法,文章后面部分凡是提到如上所述的简写形式,均指此含义);三者都用RANSAC(random
sample consensus)[15]算法提纯来剔除误匹配点。对这三者的匹配速度进行对比发现,当特征点对数小于6×106时,BSIFT1和BSIFT2算法的平均匹配时间远小于传统SIFT,BSIFT1最大可以达到传统SIFT的4.17倍;量化算法BSIFT2最大可以达到传统SIFT的3.78倍;当特征点对数趋于1×107时,BSIFT1和BSIFT2算法的平均匹配时间逐渐向传统SIFT靠拢,如图
6所示。













图 6 各算法的平均匹配时间对比

Fig. 6 Comparison between quantization methods and the traditional SIFT for the average matching time

实验对比结果表明:当特征点对的数量小于1×107时,使用穷举法进行二进制特征向量间匹配,其速度优于传统SIFT;但当特征点对的数量继续增长时,二进制特征向量的平均匹配时间逐渐向SIFT靠拢,匹配速度逐渐下降。2012年,Muja等人[16]基于对搜索空间进行层次分解的思想,提出一种二进制特征间的快速近似最近邻匹配方法,如果想进一步提高二进制特征向量间的匹配速度,就要从二进制特征向量间的快速匹配算法方面入手。


2.3 图像拼接

一种鲁棒性好且匹配效率高的图像局部特征描述子是图像配准技术的关键,它的稳定性直接影响到特征配准的效果,进而影响到图像拼接的质量和拼接效率。运用上述量化方法能够提高匹配效率、优化图像拼接,对快速匹配和快速图像拼接具有重要意义。
可以将本文提出的量化算法扩展到对实时性要求较高视频拼接中。先根据首帧提取的特征点进行匹配,估计参考帧和待拼接帧间的单应性矩阵,通过该单应性矩阵计算出待拼接帧在参考帧中的坐标空间位置,得到摄像机之间的重叠区域;然后将这个区域设置为下一帧寻找特征点的感兴趣区域(ROI),下一帧只在这个感兴趣区域内提取特征点,而不再在整幅图像中提取。在拼接过程中,随机地抽取某些帧进行检测来判断拼接的准确性。这样,将本文提出的量化方法和只对感兴趣区域进行特征点提取的思想结合使用,可减少大量的匹配时间和存储开销,对视频拼接很有效,可提高视频拼接的实时性。


3 实验结果及分析


3.1 鲁棒性测试

为验证本文算法在尺度、旋转、光照、图像模糊等图像变换下具有较好的鲁棒性,利用Oxford标准数据集[17]对SIFT、本文两种量化方法的鲁棒性进行测试对比。数据集包括了在视点变换(viewpoint
change)、光照变换(illumination change)、图像模糊(image blur)、缩放/尺度(zoom/scale)和JPEG压缩(JPEG compression)条件下的8个图像组,每组包括相同场景下不同变换程度的6幅图像,每组图像第一幅作为参考图像,后面5幅图像的标号分别为1,2,3,4,5,即让后面5幅图像和参考图像分别进行匹配。图
7描绘了本文算法以及传统SIFT算法在各个场景的不同变换程度条件下特征点对间的匹配正确率的对比结果,匹配正确率为

$k = \frac{R}{N} \times 100\% $(3)
式中,k为匹配正确率,R为正确的匹配对数量,N为总的匹配对数量。
实验对比结果表明,本文算法在绝大多数图像变换下,性能优于传统SIFT算法。除了在较大的视点变换下(如图
7(a)所示),性能有所下降,但匹配正确率在图
7(a)中所示的第1,2幅图像的视点变换下仍明显高于传统SIFT算法。













图 7 不同算法在不同变换下的匹配准确率

Fig. 7 The comparison result of different algorithms under the different conditions ((a) Graf;(b) Wall (c) Bikes;(d) Trees;(e) Bark;(f) Boat;(g) Leuven;(h) UBC)


3.2 图像拼接测试

利用本文算法进行图像拼接,从参考图像和待拼接图像中提取的特征点数量分别为1 499、2 238。在存储开销方面,量化算法BSIFT1是传统SIFT算法的1/32;量化算法BSIFT2是传统SIFT算法的1/16。在匹配准确率方面,两种量化算法均比传统SIFT算法提高了10%左右。在匹配速度上,量化算法BSIFT1的匹配速度比传统SIFT算法的提高了3.62倍;量化算法BSIFT2的平均匹配时间比传统SIFT算法提高了2.97倍。图像拼接结果如图
8所示。













图 8 图像拼接结果

Fig. 8 The result of image stitching ((a) the reference image; (b) the image to be matched; (c) the result of feature matching; (d) feature matching after RANSAC; (e) the result of image stitching)


4 结 论

本文结合传统SIFT算法可区分性强、鲁棒性强以及二进制描述子存储开销少、匹配效率高的优势,并针对SIFT算法和二进制描述子的不足,提出基于SIFT的二进制局部特征描述子。对传统SIFT的特征空间和特征向量分布在理论和实验上进行分析,在此基础上将传统SIFT特征向量量化为二进制特征向量,并证明提出的量化算法具有较强的可区分性和鲁棒性;利用汉明距离代替欧氏距离来度量量化后的二进制描述子间的相似性以提高匹配效率;在匹配阶段,将描述子分为两部分分别对其进行匹配,这样,通过初匹配可剔除部分无效匹配特征点,进一步缩短了匹配时间。
同传统SIFT算法相比,本文提出的两种量化算法的突出优点表现在:在保证传统SIFT算法较强的鲁棒性和可区分性的前提下,大大减少了存储开销,降低了计算复杂度、提高了匹配效率,达到了描述子对鲁棒性、可区分性与匹配效率权衡的要求,对快速匹配和快速图像拼接具有重要意义。将优化的图像拼接扩展到视频拼接中,能够提高视频拼接的实时性。
下一步的研究工作将针对当特征点对的数量超过某一范围时,二进制特征向量间利用穷举法进行匹配的匹配速度下降的缺点,并结合Muja等人[16]提出的二进制特征向量间的快速匹配算法,对本文中的二进制特征向量间的匹配算法进一步改进,实现更快速的特征匹配。


参考文献

[1] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision , 2004, 60 (2) : 91–110. ]DOI:10.1023/B:VISI.0000029664.99615.94]

[2] Mikolajczyk K, Schmid C. A performance evaluation of local descriptors[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence , 2005, 27 (10) : 1615–1630. ]DOI:10.1109/TPAMI.2005.188]

[3] Miksik O, Mikolajczyk K. Evaluation of local detectors and descriptors for fast feature matching[C]//Proceedings of the 21st International Conference on Pattern Recognition. Tsukuba, Japan:IEEE, 2012:2681-2684.

[4] Ke Y, Sukthankar R. PCA-SIFT:A more distinctive representation for local image descriptors[C]//Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington DC, USA:IEEE, 2004:511-517.[DOI:10.1109/CVPR.2004.1315206]

[5] Bay H, Ess A, Tuytelaars T, et al. Speeded-up robust features (SURF)[J]. Computer Vision and Image Understanding , 2008, 110 (3) : 346–359. ]DOI:10.1016/j.cviu.2007.09.014]

[6] Bekele D, Teutsch M, Schuchert T. Evaluation of binary keypoint descriptors[C]//Proceedings of the 20th International Conference on Image Processing. Melbourne, Victoria, Australia:IEEE, 2013:3652-3656.[DOI:10.1109/ICIP.2013.6738753]

[7] Calonder M, Lepetit V, Strecha C, et al. BRIEF:Binary robust independent elementary features[C]//Proceedings of the 11th European Conference on Computer Vision. Berlin Heidelberg:Springer, 2010:778-792.[DOI:10.1007/978-3-642-15561-1_56]

[8] Rublee E, Rabaud V, Konolige K, et al. ORB:an efficient alternative to SIFT or SURF[C]//Proceedings of the International Conference on Computer Vision. Barcelona, Spain:IEEE, 2011:2564-2571.[DOI:10.1109/ICCV.2011.6126544]

[9] Leutenegger S, Chli M, Siegwart R Y. BRISK:Binary robust invariant scalable keypoints[C]//Proceedings of the International Conference on Computer Vision. Barcelona, Spain:IEEE, 2011:2548-2555.[DOI:10.1109/ICCV.2011.6126542]

[10] Mair E, Hager G D, Burschka D, et al. Adaptive and generic corner detection based on the accelerated segment test[C]//Proceedings of the 11th European Conference on Computer Vision. Berlin Heidelberg:Springer, 2010:183-196.[DOI:10.1007/978-3-642-15552-9_14]

[11] Alahi A, Ortiz R, Vandergheynst P. FREAK:Fast retina keypoint[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. France:IEEE, 2012:510-517.[DOI:10.1109/CVPR.2012.6247715]

[12] Hartmann J, Klussendorff J H, Maehle E. A comparison of feature descriptors for visual SLAM[C]//Proceedings of the European Conference on Mobile Robots. Barcelona, Spain:IEEE, 2013:56-61.[DOI:10.1109/ECMR.2013.6698820]

[13] Datar M, Immorlica N, Indyk P, et al. Locality-sensitive hashing scheme based on p-stable distributions[C]//The Twentieth Annual Symposium on Computational Geometry. New York, USA:ACM, 2004:253-262.[DOI:10.1145/997817.997857]

[14] Beis J S, Lowe D G. Shape indexing using approximate nearest-neighbour search in high-dimensional spaces[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Juan, Puerto Rico:IEEE, 1997:1000-1006.[DOI:10.1109/CVPR.1997.609451]

[15] Fischler M A, Bolles R C. Random sample consensus:a paradigm for model fitting with applications to image analysis and automated cartography[J]. Communications of the ACM , 1981, 24 (6) : 381–395. ]DOI:10.1145/358669.358692]

[16] Muja M, Lowe D G. Fast matching of binary features[C]//Proceedings of the 9th Conference on Computer and Robot Vision. Toronto, Ontario, Canada:IEEE, 2012:404-410.[DOI:10.1109/CRV.2012.60]

[17] Mikolajczyk K. Affine Covariant Features[EB/OL].2007-07-15[2016-08-27]. http://www.robots.ox.ac.uk/~vgg/research/affine/.
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: