前言:我们精心挑选了数篇优质预算会计的特征文章,供您阅读参考。期待这些文章能为您带来启发,助您在写作的道路上更上一层楼。
关键词:车牌定位; 边缘检测; 几何特征; 颜色特征
中图分类号:TP391.41文献标识码:A
文章编号:1004-373X(2010)08-0100-04
Fast Location Algrorithm of Multi Licence Plates Based on Hybrid-feature
YUE Peng1, PENG Jin-ye1, LI Da-xiang1, REN Xuan2
(1.College of Information Science and Technology, Northwest University, Xi’an 710127, China;
2.Highways Management Group, Xi’an 710018, China)
Abstract:Aimming atthe problems of large computation and long-time location for the license plate location, a location method based on hybridfeature that contains the geometry and color is proposed. The histogram equalization pre-processing is made on a license plate image, the candidate district is determined with improved edge detection and mathematical morphology, and thenthe interfered district is excluded by the feature of geometry and color. At last, the location effects under various environment are compared. Besides, the corresponding algorithm and implementation results are provided.
Keywords:license plate location; edge detection; geometrical feature; color feature
车牌定位是车牌自动识别系统中的关键技术,其出发点是通过车牌区域的特征来判断牌照。该技术发展至今已有几十年的历史,可谓相对比较成熟,但很多常用的车牌定位方法都离不开对车牌边缘的提取,不管是灰度边缘检测,还是彩色边缘检测都存在计算量大,定位时间长的缺点[1]。因此,在未找到更好、更有效的定位方法之前,提高边缘检测的速度,缩短定位时间已成为改善现有车牌定位系统亟待解决的问题。这里提出一种改进的基于Sobel算子的边缘检测算法,并利用车牌的几何和颜色特征对其精确定位,在实现快速定位的同时,可将其应用于复杂背景的多车牌定位环境中,具有一定的先进性。
1 算法介绍及流程
人们获得的图像大多是公路探头或是用数码产品拍摄的,经过预处理后便于后续工作的进行。该方案主要由“生成”和“去伪”两个模块构成,如图1所示。
2 图像预处理
由于捕获的车牌图片多为.bmp和.jpg格式,且由于拍摄环境制约图像经常会曝光不足,使图像模糊,对比度和信噪比较低。为了便于系统后续工作的处理,对图像进行灰度化以及直方图均衡处理[1]。
图1 算法流程图
3 生成候选区域
3.1 边缘检测
该算法采用改进的Sobel算子,其主要思想是大大减少算法中乘法运算的次数,从而提高系统的处理速度。Sobel算子有八个与边界方向对应的模板,每个模板对某种特定边缘方向做出最大响应。所有八个方向中的最大值作为边缘幅度图像的输出[2],其八个模板分别为45°,90°,135°,180°,225°,270°,315°,360°方向[3],如下所示:
И121
000
-1-2-1〗 210
10-1
0-1-2〗 10-1
20-2
10-1〗
模块a 模块b模块c
0-1-2
10-1
210〗-1-2-1
000
121〗-2-10
-101
012〗
模块d模块e模块f
-101
-202
-101〗 012
-101
-2-10〗
模块g模块h
假设图像中某一点Q及其3×3区域的灰度为: q0q1q2
q7qqq3
q6q5q4〗,分别设ai(i=1,2,…,8)为经过Sobel算子第i种模板处理后图像Q点的灰度值,例如采用模板e,则:a5=-q0-2q1-q2+q4+2q5+q6=(q4+q6)-(q0+q2)-2(q5-q1)。
经过处理后,点Q处的灰度值W=max{ai},i=1,2,…,8。根据以上描述,采用Sobel八模板法计算像素点灰度的过程[2],对采用Sobel算子处理图像的计算量进行分析。参照计算a5,应用每一种模板所需的计算量可得,进行加法的次数为t1=5次,进行乘法的次数t2=1次。那么,依据计算点Q的灰度值所需的计算量可得,进行加法的次数为T1=8t1=40次,乘法的次数为T2=8t2=8次。采用Sobel算子八模板处理一幅N×N的图像,依上述方法可推得所需的计算量为进行加法的次数为40N2次,进行乘法的次数为8N2次。
首先该算法去掉Sobel算子八个模板中的中央值,然后按顺时针方向依次提取每个模板因子,再将提取的因子作为循环矩阵PУ囊恍,构成循环矩阵如下所示:
ИP=1210-1-2-10
210-1-2-101
10-1-2-1012
0-1-2-10121
-1-2-101210
-2-101210-1
-101210-1-2
01210-1-2-1〗
对P进行行变换就可以得到AP=B,其中A和BХ直鹞:
ИA=-11000000
0-1100000
00-110000
000-11000
0000-1100
00000-110
000000-11〗
B=1-1-1-1-1111
-1-1-1-11111
-1-1-11111-1
-1-11111-1-1
-11111-1-1-1
1111-1-1-1-1
111-1-1-1-11〗
设C=\T,D=(1/2)\T=\T,有qj(j=0,1,2,…,7),表示图片中3×3像素区域内第j个像素点的灰度值;ai(i=1,2,…,8)表示采用八模板中第i种模板的计算灰度值[4],Ъ扑愕:
ИPC=2D
因为AP=B,Ы岷仙鲜阶换可得:
ИBC=2ADИ
展开并移行可得:
Иr1=0.5(q0+2q1+q2-q4-2q5-q6)=
0.5(q0+q2-q4-q6)+(q1-q5)
r2=r1+(q7+q0-q1-q2)
r3=r2+(q6+q7-q0-q1)
r4=r3+(q5+q6-q7-q0)
r5=r4+(q4+q5-q6-q0)
r6=r5+(q3+q4-q5-q6)
r7=r6+(q2+q3-q4-q5)
r8=r7+(q1+q2-q3-q4)
由以上计算,r1需要进行加法(含减法)的次数为5次,乘法次数为1次。ri(i=2,3,…,8)需要进行加法的次数为7×4=28次,总共需要加法的次数为28+5=33次。用改进的方法处理图像,某点Q的灰度值为W=max{qi}=2max{ai},因为乘2可以用移位算子得到,那么处理一幅N×N图像需要进行的加法运算次数为33×N×N=33N2,乘法运算次数为N2次。
选取适当的阈值th,若像素的新灰度值大于th,则把该点记为边缘点,再按照从上到下,从左到右的顺序对边缘点进行扫描,可发现车灯、车头的散热横栏以及车牌区域的跳变比较突出。
3.2 基于数学形态学的定位
在候选区域确定出来后,下一步骤是根据这些区域提供的位置信息从原图像中分割出可能的牌照子图像,形成候选区域队列,即找到某一区域的任意一点后,将其压入堆栈,进行递归,判断堆栈是否为空,非空则弹出一点作为当前点并进行标号,然后查找左、下、右、上的邻点,若该邻点未曾标记,则继续压入堆栈,如此循环,直至堆栈为空[5,6]。经过数学形态学处理后,图像中有许多连通区域,为了确定车牌区域,把感兴趣的车牌从背景中分离出来,有必要对各个连通区域进行标记,逐一检测并删除伪车牌区域。
4 去除伪车牌区域
4.1 利用车牌的几何特征定位
检查所得矩形区域的长和宽,根据阈值去掉过小的区域。但通常必须保留过大的区域,因为这可能是由牌照和周围车体部分粘连而形成的。利用车牌自身相异于其他区域的几何特征在车牌候选区域中提取真正的车牌[7]。
(1) 候选车牌的尺寸大小和长宽比例;
(2) 候选区域内像素分布关系;
(3) 候选区域在原始图像中的位置。
因为候选区域是在车身的中间,且宽高比大致为140/440=0.318,这里选取[0.30,0.45]作为判断区间,据此几何特征,可以删除伪车牌区域。
4.2 利用车牌颜色特征的定位
通过上述步骤的筛选,已能精确定位对比度适中、字符清晰无磨损的普通车牌,但有时仅靠车牌的几何信息并不能完全排除伪车牌区域,如车身的文字区域、车灯以及双车牌车辆等,故利用车牌的颜色特征可实现车牌的精确定位[8-9]。
因为在通过拍摄得到的车牌图像中,由于车牌新旧、磨损状况、光照强度等众多因素的影响,不同车牌图像很难达到稳定的统一,而HSV色彩模型的高度具有独立性,可以单独考虑车牌的色彩进行判断,这带来了很大的方便。
在车牌定位中,首先选择车牌候选区中心的一块区域进行颜色模型到HSV模型的转换;然后按照区间对颜色进行划分,统计落入区间的像素点数目;再对所选区域进行色彩统计,将像素点进行归类,进行伪车牌删除,最后确定车牌区域[10]。图2所示为利用该方法直接定位成功的实例。图3所示为利用该方法定位并成功去除伪车牌区域的实例。图4所示为利用该方法定位多车牌区域的实例。
图2 直接定位成功的实例
图3 利用该方法定位并成功去除伪车牌区域的实例
图4 利用该方法定位多车牌区域的实例
5 实验结果分析
通过对上述几个应用实例的分析,将该技术普遍应用到实际生活当中。经某小区物业同意,在该小区地下、露天、立体车库以及路口通过不同角度、不同背景、不同光照采集车牌图片400张(晴天和阴雨天各200张)进行定位。采用Visual C++6.0开发工具,并在具有Core(TM)2 Duo CPU,2 GB内存的计算机上实验得到数据,定位准确率达到93.25%,27张定位失败图片,如表1所示。其中,9张由于车牌损伤较大或者字符被污染粘连现象严重;16张由于靠近车库边缘或阴雨天拍摄光线严重不足,无法通过预处理达到定位要求;2张由于是2009年新式武警车牌,车牌几何特征与92式车牌差别较大,导致定位失败。需在后续工作中对此方法进行改进,以提高其适应性。
表1 不同环境下的实验结果分析
拍摄环境拍摄距离/m拍摄角度实验图片数定位成功数实验总数定位成功总数准确率
晴朗
3
水平0°2727
水平斜45°4241
俯向下45°3129
10
水平0°6563
水平斜45°3531
20019195.50%
阴雨
3
水平0°3635
水平斜45°4440
俯向下45°2015
10
水平0°7169
水平斜45°292320018291%
此外,对采用该方法与采用普通Sobel边缘检测算子的计算结果进行了比较,普通Sobel边缘检测算子处理一幅N×N的图像需要进行加法的次数为40N2次,进行乘法的次数为8N2次,运用该方法处理一幅N×N图像需要进行加法运算次数为33N2,乘法运算次数为N2Т巍?杉,在不影响准确率的前提下,运算消耗大大减小,如表2所示(采用相同图片,相同平台环境进行比较)。
表2 改进Sobel算子与普通Sobel算子的比较
边缘提取方法实验图片数定位成功数准确率 /%定位平均耗时 /s
基于普通sobel算子40037393.250.135
基于改进sobel算子40037393.250.088
6 结 语
车牌定位是车辆牌照自动识别系统中的关键和难点,实际图像中噪声、复杂背景等的干扰都会使定位十分困难。本文采用改进的边缘检测算法快速获得图像的边缘,充分利用了车牌的几何特征和车牌的颜色特征排除伪车牌区域,实现车牌的定位。该算法在保证车牌定位可靠性的前提下,具有限制条件少,速度快的优点,并可进行多车牌定位。实验证明,该方法具有很好的定位效果和实用性。
参考文献
[1]冯满堂, 马青玉, 成峰. 基于混合特征的多车牌定位算法[J]. 微计算机信息, 2009, 25(9): 236238. [2]周培德. 计算几何算法分析与设计[M]. 北京: 清华大学出版社, 2008.
[3]王涛, 全书海. 基于改进Sobel算子的车牌定位方法[J]. 微计算机信息, 2008, 24(13): 312314.
[4]LI Gang, ZANG Ruili, LIN Ling. Research on vehicle license plate location based on neural networks[C]. Washington DC: Proceedings of the First International Conference on Innovative Computing, Information and Control, 2006.
[5]郭大波, 陈礼民, 卢朝阳, 等. 基于车牌底色识别的车牌定位方法[J]. 计算机工程与设计, 2003(5): 8187.
[6]李伟, 朱伟良, 孔祥杰, 等. 一种新型的基于数学形态学和颜色特征车牌定位算法[J]. 科技通报, 2009(25): 214219.
[7]SURYANARAYANA P V, MITRA S K, BANERJEE S K, et al. A morphology based approach for car license plate extraction[C]. Chennai: IEEE Indicon 2005 Conference, 2005.
[8]王义兴, 黄凤岗, 韩金玉, 等. 基于颜色搭配与纹理特征的车牌定位方法[J]. 中国图像图形学报, 2009(2): 303308.
关键词: 图像分块; Harris?SIFT; 迭代精化; 特征匹配
中图分类号: TN919?34; TP391 文献标识码: A 文章编号: 1004?373X(2013)22?0073?03
0 引 言
在图像局部区域提取出的特征如边缘线、角点等称为局部特征。其对仿射、旋转、光照等变化具有不变性。将局部特征应用于图像配准,具有广泛的应用领域,例如图像拼接、运动目标检测、模式识别等。Harris角点作为当前效果最好应且应用最多的角点[1?2],具有局部特征的若干不变性。利用高斯滤波,Mikolajczyk实现了Harris角点的尺度不变性[3?4]。Lowe于2004年提出完善的SIFT算法[5?6],为了能够使特征点的匹配测度更准确,对其进行定量化的描述从而生成特征矢量[5?6]。其作为特征点与匹配的桥梁,实现了图像的精确匹配。本文先将原图像分割成子图像块,利用分块阈值避免因图像灰度不均匀造成的角点漏检;结合Harris角点和SIFT定量化数据描述,获得稳定的特征矢量,保证了特征匹配的速度、精度和鲁棒性。仿真验证,这种特征匹配方法能够取得很好的仿真效果。
1 角点检测
1.1 图像分块
图像分块是本文在角点检测前的第一步,目的是为改变整幅图像角点响应单一阈值的影响,在各图像子块中设定分块阈值,使提取的角点分布均匀合理,充分反应图像整体结构[7]。可以选择图像块大小固定和块数固定的方法对图像进行分块。采用子块大小固定的方法,可以按照图像的灰度纹理分布,合理选择子块的大小,保证灰度不同的各子块根据不同阈值合理提取角点。但是,这种方法容易造成越界分块。本文用固定块数的方法,去除上述的越界分块[7]。完成图像分块后,每一个子图像块都有独自的灰度分布和纹理。在1.2节中进行角点响应阈值选择时,采用最大响应值的比例,这样[i]子块的阈值定义为[βRimax]。在每一子图像块中有不同阈值,可以检测出各子块征相对显著的角点,保证了检测的角点充分反应图像整体结构。
1.2 角点提取
高斯尺度空间是应用不同尺度的高斯滤波器对图像进行滤波,获得相应的尺度高斯图像[3]。
高斯核[4]:
判断R在角点邻域内是否为极大值并进行筛选,提取Harris位置空间角点[3]。式(4),式(5)中[TR]为角点响应阈值,本文用自适应阈值[TR=βRmax],[β]为可以设定的常数,本文仿真取[β=0.2。]在整幅图像中,[Rmax]固定,而图像灰度纹理不同,要使提取的角点分布均匀且合理,必须采用变化的阈值。为此,本文首先对图像进行分块,则第[i]块图像阈值为[TiR=βRimax],这样就可以应用子块的阈值。最后,进行拉普拉斯响应值[4]计算,判断Harris位置空间角点:
1.3 迭代精化
数字化的图像是作为离散数据来处理的,这样在对响应R判断时[Rmax]可能被拒绝,为使提取的角点收敛到其真值,采用迭代的方法进行处理,由上文得到初始点集[(x,σI)],进行精化迭代运算[4]:
用上式进行筛选,拒绝不满足式(10)的点;最后若[σ(k+1)I≠σ(k)I],并且[σ(k+1)I≠σ(k)I],转到(1)。对于数字化的图像来说,在不同的尺度上进行检测,可能会得到不同的角点位置。通过迭代精化运算,这些不同的位置将逐渐收敛一致。
2 特征矢量及匹配
2.1 角点定量化描述
为了使生成的特征矢量具有旋转不变性,首先要确定角点主方向和辅助方向[8]。计算角点邻域的梯度幅值和方向。
根据幅值统计梯度方向的直方图。在这个局部区域内,距离角点更近的点更能反应图像的结构,因此,在直方图统计时,对其进行高斯加权,使角点附近的点的幅值和方向有较大比例,消除仿射造成的角点不稳定[8]问题。根据划分的区域和方向范围,生成128维的特征向量[5?6,8]。根据区域的不同用高斯函数加权处理,保证角点附近的区域方向具有更大的比重。为增强特征矢量对光照、仿射等变化适应性,对其进行归一化。为增强特征矢量的鉴别性[5?6,8],截断其中值大于0.2的,重新进行归一化。
2.2 匹配策略
对已有的角点特征矢量,采用双向匹配策略,以欧式距离作为特征向量的相似性测度,对已生成的两个角点特征向量进行匹配。最后,应用RANSAC方法[9?10]去除误匹配,保证角点特征匹配的精度。
3 实验结果与分析
采用256×320实验图像,在Intel Core i5,3.1 GHz CPU,4.0 Gb RAM的PC机上用MATLAB语言程序实现本文方法。对分块阈值在本文方法中对角点检测的影响进行了实验分析,同时对本文提出的分块阈值Harris?SIFT与SIFT算法的匹配性能进行了仿真比较分析。
3.1 分块阈值对角点的影响
无分块阈值的Harris?SIFT算法、本文提出的算法和SIFT算法检测图像特征点分别如图1~图3所示。
图1,图2比较,图1检测到的角点较少,分布不均匀,图2角点均匀合理。可以得出,加入分块阈值,改变了整幅图像的单一阈值[Rmax],增加子图像块阈值[Rimax],使角点检测更准确,充分反应图像整体结构。
图2,3比较,图2Harris角点均匀合理,充分反应图像结构。图3特征点随图像灰度纹理变化较大,分布不均,且大都不是角点。
3.2 本文算法与SIFT算法性能比较
通过特征匹配和去除误匹配得到匹配结果如图4,比较本文算法与SIFT算法的配准效果见表1。
由实验结果可见,SIFT算法中DOG算子和卷积用时间长。本文算法先检测多尺度Harris角点,计算量小,提取特征点数相对较少,减少了描述角点消耗的时间,图像配准速度提高了19.2%。加入分块阈值,使本文提出的角点均匀合理,配准精度比SIFT算法提高了1.4%。
4 结 语
经过Matlab仿真验证,分块阈值改变了图像角点响应单一阈值的影响,使本文算法中的角点检测在图像中分布合理,充分反应图像的整体结构。并且本文算法结合了Harris角点和SIFT对图像局部结构特征定量化数据描述的互补优势,既减少了配准时间,又提高了配准的精度。但是本文算法比较SIFT,也没有解决角点受仿射变化的影响,下一步需要研究Harris角点的仿射不变性。
参考文献
[1] SCHIMID C, MOHR R, BAUCKHAGE C. Evaluation of interest point detectors [J] International Journal on Computer Vision, 2004, 37(2): 151?172.
[2] HARRIS C, STEPHENS M. A combined corner and edge detector [C]// Proceedings of 4th Alvey Vision Conference. UK: University of Manchester, 1988: 147?151.
[3] MIKOLAJCZYK K. Scale & affine invariant interest point detectors [J]. International Journal on Computer Vision, 2004, 60(1): 63?86.
[4] LINDEBERG T. Scale?space theory in computer vision [M]. Stockholm, Sweden: Kluwer Aademic Publishers, 1994.
[5] LOWE D G. Distinctive image features from scale?invariant keypoints [J]. International Journal of Computer Vision, 2004, 60(2): 91?110.
[6] LOWE D G. Object recognition from local scale?invariant features [C]// Proceedings of the International Conference on Computer Vision. Kerkyra; ICCV, 1999, 2: 1150?1157.
[7] 张登荣,刘辅兵,俞乐.基于Harris操作数的遥感影像自适应特征提取方法[J].国土资源遥感,2006(2):60?63.
[8] LI Can?lin, MA Li?zhuang. A new framework for feature descriptor based on SIFT [J]. Patter Recognition Letters, 2009, 30(1): 544?557.
关键词: 尺度不变的特征变换; 显著边缘特征; 小波边缘检测; 度量函数; 随机一致性检验
中图分类号: TP391.41 文献标志码: A
0引言
图像配准是图像处理的基本问题之一,是对具有相同场景的两幅或多幅图像在空间上进行最佳匹配和叠加的过程,已被广泛地应用到遥感图像分析、医学诊断治疗、工业缺陷检测、机器视觉等诸多领域。
目前,图像配准算法主要分为基于灰度信息法、变换域法和基于特征法三大类 于灰度信息的方法利用图像灰度的统计信息来度量图像的相似程度,实现简单,但其应用范围较窄,且计算量大。而基于特征的方法则克服了基于灰度信息法的许多缺点,以其优越的性能,成为图像配准算法研究领域的热点。该方法首先提取图像中的显著特征如角点、轮廓等,再利用特征之间的匹配关系建立图像之间配准映射关系,完成配准过程,具有压缩信息量、匹配快、灵活性高和精度高等优点。
在基于特征的图像配准中,点特征是最常用到的特征之一。常用的点特征配准算法主要有基于小波变换的边缘点提取法、角点检测法和兴趣算子法。其中,兴趣算子包括Harris[1]算子、Moravec[2]算子和尺度不变特征转换(ScaleInvariantFeatureTransform,SIFT)[3]算子等。Lowe于2004年在总结了现有的基于不变量技术的特征检测匹配方法的基础上正式提出了基于尺度不变的特征变换即SIFT算法,该算法在尺度和视角变化下均具有良好的匹配效果[4],是一种鲁棒性很好的尺度不变的特征描述方法。在此算法的基础上,国内外学者作出了很多改进,取得了很好的效果,如Ke等对归一化的梯度块进行主成分分析,实现了对特征描述符的降维处理得到PCASIFT算法[5],但该算法获得的描述子的独特性不及SIFT算子,且在快速图像匹配中效果不佳。而Mikolajczy等提出的一种梯度位置方向直方图(GradientLocationOrientationHistogram,GLOH)算法[6],在极坐标系中计算SIFT描述符,然后对其进行主成分分析(PrincipalComponentsAnalysis,PCA)降维,提高了描述子的独特性,但同时增加了计算的复杂性。此外,Bay等于2007年提出了另一种SIFT算法的改进算法即SURF(SpeededUpRobustFeatures)算法[7],其利用Hessian矩阵的快速检测子提取兴趣区域,再利用Harr小波的局部响应建立描述子,由于该算法使用块状滤波和积分图来进行图像滤波,提高了计算效率。
本文从图像局部结构轮廓入手,针对SIFT算法实现复杂、计算耗时长和匹配精度不高等不足,提出基于局部显著边缘特征的快速图像配准算法,首先对图像预处理,再对得到的图像同时进行SIFT特征点提取和小波边缘提取,对处在小波边缘上的SIFT特征点和处在区域内的SIFT特征点分类处理,筛选出具有显著边缘特征的特征点,再对其进行精确配对,大大缩小了搜索空间,节省了时间,最后采用随机一致性检验(RANdomSAmpleConsensus,RANSAC)[8]算法消除误匹配,更进一步提高了配准精度。
1算法设计
基于特征的图像配准是目前图像配准的主要方法,本文提出的基于局部显著边缘特征的快速图像配准算法的流程如图1所示,其主要包括图像预处理、特征提取、筛选显著特征点和特征匹配等几个步骤。
1.1图像预处理
由于拍摄条件、光照变化等因素的影响,获取的图像往往存在失真或变形,直接的特征提取可能会影响到图像配准的精度。本文采用直方图变换对图像进行对比度增强,突出图像特征。
1.2特征点提取
SIFT特征匹配算法是一种高效的局部特征匹配算法,该算法主要包括特征检测和特征匹配,其中,特征检测包括尺度空间极值点检测和特征点的精确定位两部分。
1.5特征点匹配
对两幅图像分别应用上述方法得到两个特征点空间和相应的特征向量,采用特征点的特征向量的欧氏距离作为特征点的相似性判定度量,对两幅图像进行特征匹配。对提取得到的某个特征点,计算该特征点与另一幅图像征点间欧氏距离最近和次近距离之间的比值,若比值小于给定的阈值,则该最近邻点即为该特征点的匹配点。由于用上面匹配准则匹配得到的特征点对之间存在误匹配,用这些匹配点估计变换参数会存在很大的误差,因此需要将其剔除,本文采用随机抽样一致性方法(RANSAC)来消除误匹配点,取得了很好的效果。
3结语
本文提出的基于局部显著边缘特征的快速图像配准方法在继承SIFT算法的尺度和旋转不变性等优点的基础上,采取保留显著特征点的策略,利用较少优良特征点获得了高效、高精度的配准。用加权后的shapecontext描述子保证了最佳的区别度,极大减少了误匹配的发生,进一步保证了配准精度。本文算法在提取显著特征点时是通过阈值实现的,而不同的阈值可以控制特征点的分布,如何利用特征点的分布规律去除无匹配区域,快速定位匹配区域是下一步研究的重点。
参考文献:
[1]HARRISC,STEPHENSM.Acombinedcornerandedgedetector[EB/OL].[20131010].http://ic.unicamp.br/~rocha/teaching/2013s1/mc851/aulas/additionalmaterialharrisdetector.pdf.
[2]VIOLAP,JONESMJ.Robustrealtimefacedetection[J].InternationalJournalofComputerVision,2004,57(2):137-154.
[3]LOWEDG.Distinctiveimagefeaturesfromscaleinvariantkeypoints[J].InternationalJournalofComputerVision,2004,60(2):91-110.
[4]LIJ,ALLINSONNM.Acomprehensivereviewofcurrentlocalfeaturesforcomputervision[J].Neurocomputing,2008,71(10):1771-1787.
[5]KEY,SUKTHANKARR.PCASIFT:amoredistinctiverepresentationforlocalimagedescriptors[C]//CVPR2004:Proceedingsofthe2004IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2004,2:II506-II513.
[6]MIKOLAJCZYKK,SCHMIDC.Aperformanceevaluationoflocaldescriptors[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2005,27(10):1615-1630.
[7]BAYH,ESSA,TUYTELAARST,etal.SpeededUpRobustFeatures(SURF)[J].ComputerVisionandImageUnderstanding,2008,110(3):346-359.
[8]FISCHLERMA,BOLLESRC.Randomsampleconsensus:aparadigmformodelfittingwithapplicationstoimageanalysisandautomatedcartography[J].CommunicationsoftheACM,1981,24(6):381-395.
[9]putervision:algorithmsandapplication[M].3rded.AIH,XINGJ,translation.Beijing:TsinghuaUniversityPress,2012:147-234.
[10]SHAPIROLG,putervision[M].ZHAOH,QIANF,CAIL,translation.Beijing:ChinaMachinePress,2005:20-100.
[11]ZHANGD.Matlabwaveletanalysis[M].BeiJing:ChinaMachinePress,2012:137-235.