前言:中文期刊网精心挑选了计算机视觉处理技术范文供你参考和学习,希望我们的参考范文能激发你的文章创作灵感,欢迎阅读。
计算机视觉处理技术范文1
关键词:双目视觉;匹配算法;计算机视觉;立体匹配;相位一致性
1.计算机视觉系统分析研究
1.1计算机视觉技术及双目立体视觉
计算机视觉是通过计算机技术实现对视觉信息处理的整个过程,是一门新的学科。视觉是人们认知事物的重要途径,视觉是人们对视觉信息获取、处理和存储的过程。随着计算机技术的发展,信号处理技术的应用,人们通过照相机来把实际的事物拍摄下来转变为数字信息,并通过计算机信号处理技术队获取的视觉信号进行处理。计算机视觉技术对图像的处理分为获取图像、特征抽象选取、事物识别及分类和对三维信息的理解。获取图像主要是通过摄像机和红外线等技术对周围视觉事物进行获取,并通过计算得到和真实事物相应的二维图像,二维图像主要是数字图像。计算机视觉系统的最基本的功能是数字图像的获取。可以看出计算机视觉研究最基本内容是三维场景距离信息的获取。在计算机被动测量距离方法中,有一种重要的距离感知技术叫作双目立体视觉。双目立体视觉技术是其他计算机视觉技术无法取代的一种技术,对双目立体视觉技术的研究在计算机视觉技术和工程应用方面都是非常重要的。
1.2计算机视觉理论框架
第一个视觉系统理论框架的提出是以信息处理为基础,综合了图像处理和神经生理学等研究内容而建立的。这个视觉系统理论框架是计算机视觉系统的基本框架,与计算机视觉技术有着密切的关系。视觉系统的研究是以信息处理为基础的,从理论层次、算法层次和硬件层次3个层次进行研究。计算机理论层次主要是表达系统各个部分计算的目的和方法,对视觉系统的输入和输出进行规定,输入作为二维图像,输出是以二维图像为基础建立起来的三维物体,视觉系统的目的就是对三维物体进行分析和识别,通过计算对二维物置和形状进行重新建立。算法层次对计算机规定的目标进行计算,算法和计算机表达有关,不同的表达可以通过不同的算法进行实现,在计算机理论的层次上,算法和表达比计算机理论的层次要低。硬件层次是通过硬件来实现算法的一种表达方法。计算机理论层次在计算机信息处理中时最高的层次,取决于计算机的本质是解决计算机的自身问题,不是取决于计算问题的计算机硬件。要更好地对计算机系统和框架进行理解最好的方法就是要区分3个不同的层次,计算机理论的含义和主要解决的问题是计算机的目的,表达算法含义和主要解决的问题是实现计算理论的方法和输入输出的表达,硬件的实现的含义和主要解决的问题是如何在物理上对表达和算法进行实现。计算机视觉处理的可以分为3个阶段,对视觉信息的处理过程从最初的二维图像的原始数据,到三维环境的表达。第一阶段基元图的构成,基元图是用来表示二维图像中的重要信息,主要是图像中亮度变化位置及其几何分布和组织结构,图像中每点的亮度值包括零交叉、斑点、端点和不连续点、边缘等。第二阶段2.5维图描述,在以观测者为中心的坐标中,表示可见表面的方向、深度值和不连续的轮廓,基元是局部表面朝向离观测者的距离深度上的不连续点表面朝向的不连续点。第三阶段三维模型表示,在以物体为中心的坐标系中,有由体积单元和面积单元构成的模块化多层次表示,描述形状及其空间组织形式,分层次组成若干三维模型,每个三维模型都是在几个轴线空间的基础上构成的,所有体积单元或面积形状基元都附着在轴线上。视觉理论框架图如图1所示。
2.基于计算机的视觉立体匹配算法研究
视觉立体匹配算法是基于人类视觉系统的一种计算机算法。立体匹配算法作为计算机立体视觉问题研究的重点,快速地实现图像对应点的匹配来获得视差图是当今研究的热点问题。立体视觉匹配算法根据基元匹配的不同可以分为相位匹配、区域匹配和特征匹配3种,其中区域匹配算法可以减少计算负担,区域匹配算法实时性高,应用前景广阔。计算机立体视觉通过对人的双眼进行模仿,在双眼的立体感知中获得信息,从摄像机拍摄的图像中获取物体的三维深度信息,这就是深度图的获取,把深度图经过处理得到三维空间信息数据,二维图像到三维空间实现转换。深度的获取在双目立体成像视觉系统中分为两步,首先在双目立体图像与图像之间建立点对点的对象关系,双目立体视觉算法研究的重点问题是解决对应点之间的匹配问题。其次以对应点之间的视差为依据对深度值进行计算。双目成像是获取同一场景中两幅不同的图像,两个单目成像模型构成一个双目成像模型。双目成像示意图如图2所示。系统的基线B是两个镜头中心的连接线,空间点w(z,y,z)作为世界坐标的值由(x1,y1)与(x2,y2)进行确定,如果摄像机的坐标位置和空间点w世界坐标的位置重合,图像平面和世界坐标轴xY的平面就是平行的。如果两个摄像机在坐标系统中的原点不同但是它们的光轴平行,那么双目成像计算人们可以看图3所示,图3表示的是两个摄像头连线在平台xY的示意。
立体视觉的成像过程是成像的逆过程,具有一定的不确定性。大量的数据信息在从三维影像向二维图像进行投影的过程会出现丢失的现象,所以视觉系统要通过自然的约束条件才能保证获取正确的解。这些约束条件在减少匹配的计算量方面可以提供有利的帮助。针对基于区域匹配快速算法,还可以应用基于视差梯度的匹配算法,这种匹配算法应用较大的搜索范围在边缘的特征点上进行搜索,采用视差梯度在非边缘区减少搜索范围。应用计算机视觉立体匹配算法可以减少成像匹配时间,大大提高了工作效率。计算机立体匹配算法征点的提取是算法的关键问题,今后的研究方向重点是对有效特征点提取方法的研究。
计算机视觉处理技术范文2
近年来,经济的发展和人们生活水平的提升也使得人们的出行更加便捷,越来越多的人都是自己驾车出行,这样导致公路上的交通流量不断增加,如何保障交通的顺畅性和安全性成为人们关注的重点问题。信息技术的发展推动了计算机视觉技术的出现,为交通安全性的提升提供了一定的保障。本文主要对计算机视觉技术进行分析,进一步探讨计算机视觉技术在智能交通系统中的应用。
【关键词】计算机 视觉技术 智能交通 系统 应用
智能交通系统简称ITS,这是一种新型的交通管理系统。该系统主要结合了信息化技术、计算机技术以及数据传输技术等多种技术,用来对整个交通运输体系进行管理,可以实现人、车、路的全面监控和管理。计算机视觉艺术作为智能交通系统中的一个重要环节,受到相关工作人员的高度重视。随着计算机视觉技术的发展,不仅为交通行业的发展提供了更多的便捷,同时还能够筛选道路交通的各种信息,进一步增强了智能交通系统的灵活性和准确性。
1 计算机视觉技术的概述
计算机视觉也被称为图像分析和图解理解,其包括的理论主要有摄影几何学、概率论、图像处理理论以及人工智能理论等部分。计算机视觉技术主要是用二维投影图像实现三维物体重构。这种技术的应用范围比较广泛,不仅应用于二维图像识别方面,同时还用于三维物体的识别和重建上面。通过计算机视觉技术能够获取专业化的三维信息,对三维信息的获取一般有两种方法,其中一种是直接获取法,还有一种是间接获取法。直接获取法主要是通过计算机视觉技术的效果来确定三维运动中产生的各种参数,这一过程对摄像机运动问题的关注程度较高;间接获取的方式就是将单幅图像和摄像机焦距相结合,来判断被测量位置视觉上的信息。计算机视觉技术的关键就是实现特别匹配,在特殊情况下可以利用不同的摄像C同时收集运动信息,从而提高相关控制的精确度。
2 计算机视觉技术在智能交通系统中的应用
计算机视觉技术在智能交通系统中的应用可以实现道路交通的监控,同时还能够实现自动收费、智能导航等功能,主要应用有以下几个方面的内容。
2.1 交通监控中对计算机视觉技术的应用
基于计算机视觉技术的交通监控系统主要分为三个步骤,首先是对车辆和行人进行跟踪和分割,其次是对车流量进行分析和计算,并且计算车辆的平均速度和道路上车辆的队列长度,最后根据道路的交通状况来规划形式线路,从而有效缓解道路交通拥堵的现状,方便人们减少出行时间。车辆和行人作为道路中运动的主要目标,在监控场合下,需要对运动时间进行有效分割,常用到的分割方式包括光流法和帧差法两种,其中前一种分割方式主要是依据图像中不同的运动用映射参数正确的表达,这样可以将具有同样映射参数的光流量进行分配,从而完成参数分割。计算机视觉在交通监控中的应用主要是对车辆速度、车辆数目、车辆分类进行检测。随着计算机通信技术的发展,计算机视觉技术也是日新月异,基于计算机视觉的交通监控系统具有较强的实时工作性,能够快速的适应高度公路以及城市道路交通的监控。
2.2 车辆导航中对计算机视觉技术的应用
实现车辆的智能导航是计算机视觉技术在智能交通中应用的典型案例。这种技术主要为驾驶人员提供道路信息和车辆运行状况两大信息。通过车辆智能导航系统的运行能够对道路两边的界限进行有效的识别,将车辆引向规定的行驶车道,在车辆行驶过程中,该系统能够自动检测车辆与前方其他车辆之间的距离,从而提醒驾驶人员保持车辆的安全距离,最终实现安全导航驾驶。通过该系统的摄像机运动能够识别其他车辆的行驶状况,并且通过计算检测点的方式计算车辆的模拟匹配点。车俩智能导航系统中就使用了计算机视觉技术,可以从中提取相关信息,计算车辆行驶的安全距离和速度。
2.3 计算机视觉技术用于车辆辅助驾驶
计算机视觉技术在车辆辅助驾驶中的应用主要是帮助驾驶人员对外界的变化做出反应。具体表现为车辆在市内行驶时,计算机视觉技术的应用能够识别周边道路的标记,并且对交通标志、其他车辆和行人进行识别,然后筛选相关信息进行计算,让驾驶人清楚外界的具体状况,从而避开其他的车辆和行人,能够从根本上减少交通事故的发生,增强车辆的安全运行。辅助驾驶的形式转变为人机交互的方式,一定程度上能够满足驾驶人员对信息的需求。
2.4 计算机视觉技术用于车辆智能收费
车辆收费是车辆在公共交通位置行驶中的一个关键环节。随着科学技术的发展,车辆收费系统逐渐向着计算机技术的应用方向发展,计算机视觉技术在各地区交通发展中的应用是现代化交通发展的一个重要突破口。很多地区的智能化收费都是通过识别车牌的方式来实现收费,我国在车牌识别这方面仅仅限制于单目车牌和双目车牌的识别,其中单目车牌识别的核心就是将车牌照位置作为核心部分,我国大部分地区都是将单目系统作为核心部分来使用。采用双目系统对车牌进行识别,也可以对车辆的型号进行识别,通过大量的实践发现,双目系统进行车牌识别的实用性较强。但是这种识别方式在实际应用过程中仍然存在着信息获取难度大、车牌照定位难度大等多种问题,尤其是车辆在高速路上行驶时,对于车牌信息的获取更为困难,因此,在这方面还需要加大研究和实践。
3 结束语
随着计算机视觉技术的智能化发展,其在智能交通系统中的应用能够解决多方面的问题。该技术的应用不仅能够实现车辆的实时监控,同时还能够实现车辆导航以及车辆收费,帮助驾驶人员识别车辆行驶中存在的障碍物,这样一来,可以增强车辆行驶的安全性,同时还能够提高我国道路交通系统的整体管理水平。但是该技术应用中也存在不足之处,未来发展中需要降低视觉系统的价格,减少系统的尺寸,从而增强系统对车辆信息的处理速度,最终实现对道路交通的全面监测。
参考文献
[1]王春波,张卫东,许晓鸣.计算机视觉技术在智能交通系统中的应用[J].测控技术,2000(05):22-24.
[2]郁梅,蒋刚毅,郁伯康.智能交通系统中的计算机视觉技术应用[J].计算机工程与应用,2001(10):101-103+121.
[3]顾晶. 基于计算机视觉的智能交通监控系统的研究[D].东南大学,2006.
[4]谢萍萍,黄传春.计算机视觉技术在智能交通系统中的应用[J].福建电脑,2008(10):77+133.
计算机视觉处理技术范文3
关键词:数字摄影测量 计算机视觉 多目立体视觉 影像匹配
引言
摄影测量学是一门古老的学科,若从1839年摄影术的发明算起,摄影测量学已有170多年的历史,而被普遍认为摄影测量学真正起点的是1851―1859年“交会摄影测量”的提出。在这漫长的发展过程中,摄影测量学经历了模拟法、解析法和数字化三个阶段。模拟摄影测量和解析摄影测量分别是以立体摄影测量的发明和计算机的发明为标志,因此很大程度上,计算机的发展决定了摄影测量学的发展。在解析摄影测量中,计算机用于大规模的空中三角测量、区域网平差、数字测图,还用于计算共线方程,在解析测图仪中起着控制相片盘的实时运动,交会空间点位的作用。而出现在数字摄影测量阶段的数字摄影测量工作站(digital photogrammetry workstation,DPW)就是一台计算机+各种功能的摄影测量软件。如果说从模拟摄影测量到解析摄影测量的发展是一次技术的进步,那么从解析摄影测量到数字摄影测量的发展则是一场技术的革命。数字摄影测量与模拟、解析摄影测量的最大区别在于:它处理的是数字影像而不再是模拟相片,更为重要的是它开始并将不断深入地利用计算机替代作业员的眼睛。[1-2]毫无疑问,摄影测量进入数字摄影测量时代已经与计算机视觉紧密联系在一起了[2]。
计算机视觉是一个相对年轻而又发展迅速的领域。其目标是使计算机具有通过二维图像认知三维环境信息的能力,这种能力将不仅使机器能感知三维环境中物体的几何信息,包括它的形状、位置、姿态、运动等,而且能对它们进行描述、存储、识别与理解[3]。数字摄影测量具有类似的目标,也面临着相同的基本问题。数字摄影测量学涉及多个学科,如图像处理、模式识别以及计算机图形学等。由于它与计算机视觉的联系十分紧密,有些专家将其看做是计算机视觉的分支。
数字摄影测量的发展已经借鉴了许多计算机视觉的研究成果[4]。数字摄影测量发展导致了实时摄影测量的出现,所谓实时摄影测量是指利用多台CCD数字摄影机对目标进行影像获取,并直接输入计算机系统中,在实时软件的帮助下,立刻获得和提取需要的信息,并用来控制对目标的操作[1]。在立体观测的过程中,其主要利用计算机视觉方法实现计算机代替人眼。随着数码相机技术的发展和应用,数字近景摄影测量已经成为必然趋势。近景摄影测量是利用近距离摄影取得的影像信息,研究物体大小形状和时空位置的一门新技术,它是一种基于数字信息和数字影像技术的数据获取手段。量测型的计算机视觉与数字近景摄影测量的学科交叉将会在计算机视觉中形成一个新的分支――摄影测量的计算机视觉,但是它不应仅仅局限于地学信息[2]。
1. 计算机视觉与数字摄影测量的差异
1.1 目的不同导致二者的坐标系和基本公式不同
摄影测量的基本任务是严格建立相片获取瞬间所存在的像点与对应物点之间的几何关系,最终实现利用摄影片上的影像信息测制各种比例尺地形图,建立地形数据库,为各种地理信息系统建立或更新提供基础数据。因此,它是在测绘领域内发展起来的一门学科。
而计算机视觉领域的突出特点是其多样性与不完善性。计算机视觉的主要任务是通过对采集的图片或视频进行处理以获得相应场景的三维信息,因此直到计算机的性能提高到足以处理大规模数据时它才得到正式的关注和发展,而这些发展往往起源于其他不同领域的需要。比如在一些不适合于人工作业的危险工作环境或人工视觉难以满足要求的场合,常用计算机来替代人工视觉。
由于摄影测量是测绘地形图的重要手段之一,为了测绘某一地区而摄影的所有影像,必须建立统一的坐标系。而计算机视觉是研究怎样用计算机模拟人的眼睛,因此它是以眼睛(摄影机中心)与光轴构成的坐标系为准。因此,摄影测量与计算机视觉目的不同,导致它们对物体与影像之间关系的描述也不同。
1.2 二者处理流程不同
2. 可用于数字摄影测量领域的计算机视觉理论――立体视觉
2.1 立体视觉
立体视觉是计算机视觉中的一个重要分支,一直是计算机视觉研究的重点和热点之一,在20多年的发展过程中,逐渐形成了自己的方法和理论。立体视觉的基本原理是从两个(或多个)视点观察同一景物,以获取在不同视角下的感知图像,通过三角测量原理计算像像素间的位置偏差(即视差)来获取景物的三维信息,这一过程与人类视觉的立体感知过程是类似的。一个完整的立体视觉系统通常可分为图像获取、摄像机定标、特征提取、影像匹配、深度确定及内插等6个大部分[5]。其中影像匹配是立体视觉中最重要也是最困难的问题,也是计算机视觉和数字摄影测量的核心问题。
2.2 影像匹配
立体视觉的最终目的是为了恢复景物可视表面的完整信息。当空间三维场景被投影为二维图像时,同一景物在不同视点下的图像会有很大不同,而且场景中的诸多因素,如光照条件,景物几何形状和物理特性、噪声干扰和畸变以及摄像机特性等,都被综合成单一的图像中的灰度值。因此,要准确地对包含了如此之多不利因素的图像进行无歧义的匹配,显然是十分困难的。
在摄影测量中最基本的过程之一就是在两幅或者更多幅的重叠影像中识别并定位同名点,以产生立体影像。在模拟摄影测量和解析摄影测量中,同名点的识别是通过人工操作方式完成的;而在数字摄影测量中则利用计算机代替人工解决同名点识别的问题,即采用影像匹配的方法。
2.3 多目立体视觉
根据单张相片只能确定地面某个点的方向,不能确定地面点的三维空间位置,而有了立体像对则可构成与地面相似的立体模型,解求地面点的空间位置。双目立体视觉由不同位置的两台或者一台摄像机(CCD)经过移动或旋转拍摄同一幅场景,就像人有了两只眼睛,才能看三维立体景观一样,然后通过计算空间点在两幅图像中的视差,获得该点的三维坐标值。现在的数字摄影测量中的立体像对技术通常是在一条基线上进行的,但是由于采用计算机匹配替代人眼测定影像同名像对时存在大量的误匹配,使自动匹配的结果很不可靠。其存在的问题主要是,对存在特殊结构的景物,如平坦、缺乏纹理细节、周期性的重复特征等易产生假匹配;在摄像机基线距离增大时,遮挡严重,能重建的空间点减少。为了解决这些问题,降低双目匹配的难度,自1986年以来出现了三目立体视觉系统,即采用3个摄像机同时摄取空间景物,通过利用第三目图像提供的信息来消除匹配的歧义性[5]。采用“多目立体视觉技术”可以利用摄影测量的空中三角测量原理,对多度重叠点进行“多方向的前方交会”,既能较有效地解决随机的误匹配问题,同时又能增加交会角,提高高程测量的精度[2]。这项技术的应用,将很大程度地解决自动匹配结果的不可靠性,提高数字摄影测量系统的准确性。
计算机视觉处理技术范文4
关键词: 计算机视觉;快速开发;框架;模块化;模块耦合;底层剥离
中图分类号:TP311 文献标识码:A 文章编号:1009-3044(2012)29-7084-04
在视觉分析实际应用项目中,如何通过建立计算机视觉分析快速开发框架,搭建一个分工明确,快捷有效的图像学应用处理平台,提高开发效率,缩短开发时间,已成为项目开发人员关注的重点内容之一。本框架从项目应用和实际需求出发,将计算机视觉技术的核心算法从底层研究工作中剥离,可极大的缩短开发时间,提高开发效率。
在本框架下,开发人员可各司其职,分工、构成和职能划分明确,框架开发人员只专注于框架接口的定义;算法开发人员只专注于图像处理与识别等算法的开发;上层应用开发人员只负责抽取出一般的处理流程,专注于项目的具体实现和功能模块的组合应用。
1 研究与应用
1.1背景
计算机视觉是用摄像机和电脑代替人眼对目标进行识别、跟踪和测量的机器视觉。系统将获取的视频或图像资料,通过计算机处理成为更适合人眼观察或传送给仪器检测的图像,其中包括图像处理、模式识别或图像识别、景物分析、图像理解等相关内容,它们之间既有差别,又有相互重叠。
在计算机视觉分析技术中,对于一些复杂的问题,往往不是某单一学科能够解决的,它需要一系列相关技术的支持。例如:对航道中船舶的识别,获取的视频流往往要经过平滑、去噪等图像处理操作后,便于下一步运用基于直方图分类器的图像识别算法来区分船舶和水面,通过图像分割技术来提取检测目标。而这些方案的实现中,同一个问题的解决又往往需要有一系列的算法来支持。还是以船舶识别为例,图像平滑有领域平均、低通滤波等算法;图像去噪有各种滤波器算法;基于直方图的分类器也存在决策树、贝叶斯、SVM等等算法。虽然上述的算法本身没有优劣之分,但在特定的环境下一定会有某个最佳算法。
因此,在实际应用项目中如何找出其最优路径,除了需要开发者拥有深厚的图像学功底,更需要的是通过大量的对比实验来找出该最优路径的解决方案。即便如此,也只能解决特定环境下的计算机视觉需求,换个应用场景,上述步骤又需要重新进行,此类过程的重复,既增加了开发成本,又延长了开发时间。
本框架从工程化的角度出发,在不同项目中的计算机视觉软件开发中,研究如何提高开发结果的复用性,尽量降低上述各条件间的相互依赖关系,将视觉技术的核心算法从底层研究中剥离,达到缩短开发时间,提高开发效率的目的。
1.2研究目标
1) 框架系统的扁平化、模块化;
2) 完成处理过程的任意组合,使图像处理模块单一化;
3) 理行为在处理模块内部完成,处理结果可通过接口方式进行输出;
4) 处理模块间的数据流动定义在框架之中,框架负责配置数据流;
5) 置好的数据流,通过指定图像处理模块实现对物体的识别、行为的识别。
1.3.5框架的效果演示
从右侧功能区中选取两个输入模块:MediaOpen00和MediaOpen01,分别打开视频文件“.\公司监控视频.avi”和图片“.\Lena.jpg”,任意添加一些图像处理模块或者图像识别模块,这里我们选取了行人检测算法、基本全局阈值二值算法、人脸检测算法、轮廓检测算法,加入输出展示模块用于显示处理结果。最后我们用曲线将模块间的输入输出点连起来,完成数据流向的配置过程。其中一个输出点可以连接多个输入点,但一个输入点只能接入一个输出点。
2 结论
随着计算机视觉技术发展的日新月异,算法的更新和积累将会越来越多。计算机视觉快速开发框架从实际应用工程的角度出发,在不同项目计算机视觉软件的开发过程中,将视觉技术的核心算法从底层研究中剥离,使视觉分析应用项目中的框架开发人员专注于框架接口定义的开发,而项目中的算法、上层应用等开发人员各司其职,分工明确,不但提高了开发结果的复用性,同时,也降低了项目开发中各条件间的相互依赖关系,缩短了开发时间,提高了开发效率。
参考文献:
[1] Gary bradski,Adrian Kaebler.《Learning OpenCV》[M].O’Reilly Media Inc,2008.
[2] 张广军.机器视觉[M].北京:科学出版社,2005.
[3] 张少辉,沈晓蓉,范耀祖.一种基于图像特征点提取及匹配的方法[J].北京航空航天大学学报,2008,34(5).
[4] 刘立,彭复员,赵坤,万亚平.采用简化SIFT算法实现快速图像匹配[J].红外与激光工程,2008,37(1).
[5] 戴斌,方宇强,孙振平,王亮.基于光流技术的运动目标检测和跟踪方法研究[D].国防科学技术大学机电工程与自动化学院.
[6] 陈胜勇,刘盛.基于OpenCV的计算机视觉技术实现[M].科学出版社.
计算机视觉处理技术范文5
1计算机视觉概述
1.1计算机视觉学概述
从某种意义上说,计算机视觉学是一门在20世纪60年代兴起的新学科。它是一门边缘学科,融入了很多学科的特点,具有很强的工程性特征。比如,图像处理、应用数学、光电技术。换个角度来说,计算机视觉同属于工程领域、科学领域。
1.2计算机视觉的应用
计算机视觉的应用能够使计算机具有和人一样的视觉功能。在生活和生产过程中,照片资料、视频资料的处理是计算机视觉应用的主要方面。比如,在航空事业方面,对卫星照片的翻译;在医学领域中,主要用于辅方面的诊断;在工业生产方面,由于各种复杂因素的影响,计算机视觉在这方面的应用显得特别简单,有利于相关系统的实际构成。
2目标图像检索存在的问题
从某种角度来说,目标图像检索需要分为特征匹配、特征提取两个方面。它们表达了不同的含义。对于特征提取来说,它是图像进行检索的第一步,其提取结果会对进一步的研究造成直接的影响。而对于特征匹配来说,其匹配的准确度会直接影响图像检索系统的返回结果。但在目标图像检索完善的过程中,遇到一些问题阻碍了这两个方面的完善。因此,本文作者对其中的一些予以了相关的探讨。
2.1环境因素不断变化
对于目标图像来说,环境因素是影响其准确率的重要因素。同时,在复杂混乱的环境中,由于受到众多干扰物的影响,加上部分目标图像区域被遮盖,致使目标图像信息不够全面,使目标物体特征的提取难度进一步加大。
2.2图像噪声的影响
子为了更好地模仿生活中的图像检索,数据库中的图像也会随之发生一系列的变化。比如,尺度、角度、光照。而其中图像噪音的影响会使目标物体的外观发生对应的变化。在此基础上,严重降低了目标图像信息获取的准确度。
2.3目标图像检索训练数据的自动标注
由于处于网络中的图像资源信息过于繁多,需要采用手工的方式对它们进行标注。但这种方法非常浪费时间,准确率也比较低。很显然,这就需要目标检索图像能够具有自动标注的能力。实际上,图像检索方法过分依赖人工标注信息。而这些信息很多收到来自各方面因素的影响。比如,认识差异因素、个人经验。以至于对图像产生误解。
3基于计算机视觉下的目标图像检索技术
3.1以多尺度视觉为纽带的目标图像检索方法
该种目标检索技术的应用主要是为了提高目标图像检索的准确率,能够实现目标图像训练数据的自动化标注。该类技术主要是用于那些没有遮挡,不需要进行监督的目标图像检索方面。具体来说,它需要经过一系列的训练。在训练的过程中,以统计学习为纽带,对相应多尺度的目标检测模型进行适当的训练。在此基础上,以该模型为基点,对图像中那些显著性的区域进行合理地提取。比如,该区域的亮度、颜色。最后,需要对用于该实验研究中的概率潜在语义分析模型进行合理地利用。总之,利用这种检索方法可以对图像中那些显著目标所处的区域自动进行检测。同时,对其中目标图像的显著性进行合理地排序,能够提高检索引擎所返回图像结果的准确度。
3.2以彩色LBP局部纹理特点为媒介的目标图像检索方法
这种目标图像检索方法能够有效地解决图像信息采集过程图像噪声以及其它相关因素对所提取纹理特征的影响,提高了图像目标的准确率。对于这种图像目标检索方法来说,它把图像彩色空间特征和简化的LBP特征有机地相融合。在此基础上,该类方法增加了光照的不变特性,却保留了LBP局部的旋转特点。在提高图像检索速度方面,主要是利用原来的LBP特征来丢失其中的彩色信息。以此,使其中的特征维度能够在一定程度上降低。同时,这种目标图像检索方法的应用可以使对应计算方法的难度得以降低,还能对角度等变化状态下的目标图像进行准确地识别以及检索。
3.3以视觉一致性为桥梁的目标图像检索方法
从某个角度来说,它的应用主要是为了提高图像搜索引擎的返回效果,使局部噪声图形具有更高的显著性特征。一是:站在客观的角度,对搜索引擎返回结果的目标显著图予以准确的计算。此外,还要对其中的目标显著系数进行适当地过滤。二是:以所有图像为基点,以显著目标为导向,采取视觉一致性的模式。三是:以视觉一致性为基础,对其中的不同目标图像信息进行客观地分类。这种以视觉一致性为核心的方法能够有效地提高图像检索结果的准确率。更重要的是,在提高图像搜索引擎检索性能的同时,能够及时为用户选出最优的图像信息。而这些信息资源和用户寻找的主题信息密切相关。
4结语
计算机视觉处理技术范文6
关键词:计算机视觉;地图匹配;SLAM;机器人导航;路径规划
1概述
计算机视觉在人工智能学科占据重要地位,为自主移动机器人视觉导航做了深厚的理论铺垫。目前,机器人导航技术有很多种,传感器导航技术如里程计、激光雷达、超声波、红外线、微波雷达、陀螺仪、指南针、速度、加速度计或触觉等得到了普遍应用,与上述非计算机视觉导航技术相比较,计算机视觉导航技术如人眼般具有灵敏度高且可捕获的信息量大以及成本低等优点。由于室内相对室外空间比较狭小且内部环境复杂,所以普通移动机器人在作业过程中,完成躲避眼前障碍物、自主导航以及为自身找出一条可行路径等一系列操作会相对比较困难。计算机视觉导航技术可利用本身的摄像头获得室内周围的环境信息,实时对其周身的场景进行快速反馈,对视野前方障碍物进行快速识别和检测,从而确定一条高效的可行的安全路径。本文对计算机视觉导航技术进行分类研究,主要分为3类:第一类是环境地图事先已知,提前对外界环境特征进行提取和处理,建立全局地图,并将地图信息存储在机器人内存数据库中,在导航的时候实时进行地图匹配;第二类是同时定位与地图构建,移动机器人在自身位置不确定的情况下根据自身的摄像头获取周围未知环境信息,在作业时逐步构建周围的环境地图,根据构建的增量式地图自主实时定位和导航;第三类是不依赖环境地图,自主移动机器人不需要依赖任何的环境地图,其在作业活动时的可行区域主要取决于摄像头实时识别和检测的环境相对信息。
2环境地图的表示方法
目前,计算机视觉导航技术多采用栅格地图、几何地图、拓扑地图和混合地图构建环境地图信息。
2.1栅格地图
栅格地图,将栅格图像考虑为一矩形,均分为一系列栅格单元,将每个栅格单元赋予一个平均概率值,并利用传感信息估计每个单元内部内存障碍物的概率。构建栅格地图的优点是其地图表达形式直观,创建和维护比较容易;但当划分的栅格单元数量不断增多时,实时性就会慢慢变差;当划分的栅格单元越大时,环境地图的分辨率越低。
2.2几何地图
几何地图利用几何特征如点、直线、平面等来构成环境主要框架,需要知道这些特征在环境中信息的具置,所以几何地图通常使用其对应的三维空间坐标来表示。几何地图构建过程相对简单,保留了室内环境的各种重要信息,是基于计算机视觉的定位与地图构建算法中最常用的一种表示方式。但是为了完成环境的建模需要标记大量的特征,从而计算量也非常的大,降低了实时性,其重建的地图也容易出现与全局不一致的情况。
2.3拓扑地图
拓扑地图用许多节点和连接这些节点的曲线来表示环境信息。其中,每个节点相对应真实环境中的特征点(如门角、窗户、椅子、桌子角及拐角等),而节点之间的曲线表示两个节点对应的地点是相联通的。拓扑地图把环境信息表上在一线图上,不需要精确表示不同节点间的地理位置关系,图像较为抽象,表示起来方便且简单。机器人首先识别这些节点进而根据识别的节点选择节点与节点间的曲线作为可作业的路径。
2.4混合地图
混合地图主要包括3种形式:栅格一几何地图、几何一拓扑地图以及栅格一拓扑地图。混合地图采用多种地图表示,可结合多种地图的优势,与单一的地图表示相比更具有灵活性、准确性和鲁棒性,但其不同类别的地图结合起来管理会比较复杂,难以协调,增加了地图构建的难度。文献针对室内环境所建立的模型分为全局拓扑和局部几何表述部分,整体环境通过拓扑节点串连起来,维护了整体环境表述的全局一致性;而以每个拓扑节点为核心所采用的几何表述则可确保局部精确定位的实现,这样建立的几何一拓扑混合环境模型可将二者的优势都表现出来,使得移动机器人定位和地图构建同时进行,实现容易。
3基于计算机视觉的室内导航
基于计算机视觉的室内导航技术可利用摄像头捕获机器人周围环境的全部信息,对其周身的场景进行反馈,对障碍物进行快速识别和检测,从而确定一条高效的可行的安全路径。本文将计算机视觉室内导航技术主要分为3类:第一类是环境地图事先已知;第二类是定位与地图构建同时进行;第三类是不依赖环境地图。
3.1环境地图事先已知
提前对外界环境特征进行提取和处理,建立全局地图,并将地图信息存储在机器人内存数据库中,在导航的时候实时进行地图匹配,即预存环境地图。在环境地图事先已知的导航中,路标信息保存在计算机内存的数据库中,视觉系统中心利用图像特征直接或间接向移动机器人提供一系列路标信息,一旦路标被确定后,通过匹配观察到的图像和所期望图像,机器人借助地图实现自身精确定位和导航。该导航技术过程可分为以下步骤:
a)图像获取:摄像头获取其周围的视频图像;
b)路标识别及检测:利用相关图像处理算法对图像进行一系列预处理如进行边缘检测和提取、平滑、滤波、区域分割;
c)路标匹配标志:在观察到的图像和所期望图像之间进行匹配,搜索现有的路标数据库进行标志路标;
d)位置计算:当有特征点进行匹配时,视觉系统会根据数据库中的路标位置进行自身精确定位和导航。
在基于计算机视觉的地图匹配定位过程中,主要有2种地图匹配较为典型。
①已知起点,已知地图。这种条件下的定位称为局部定位,采用的是一种相对定位的方法,如图1所示为其位姿估计过程,这种情况目前导航技术研究得最多。
②不知起点,已知地图。这种条件下的定位称为全局定位。当机器人需要重置时,通常使用这种定位方法来检索机器人的当前位置(即姿态初始化)。常用的辅助方法是在环境中添加一些人造信标,如无线收发器,几何信标,条码技术,红外或超声波接收系统进行位置识别,利用视觉系统识别自然标志,自主定位。
3.2定位与地图构建同时进行
不知起点,不知地图。SLAM技术最早由Smith等人于1986年提出,移动机器人在自身位置不确定的情况下根据自身的摄像头获取周围未知环境信息,在作业时逐步构建周围的环境地图,根据构建的增量式地图自主实时定位和导航。在日后的导航研究中,混合地图中的几何一拓扑混合环境模型被得到广泛应用,主要用来解决SLAM问题。
2003年,在解决SLAM技术难题上,Arras等人采用基于Kalman滤波器和最邻近(nearest neighbor)匹配策略的随机地图创建方法。下面是该算法步骤:
a)数据采集:首先初始化系统,从摄像头传感器采集距离数据;
b)状态预测:视觉系统预测机器人运动状态,实时返回新位姿信息和协方差矩阵,预测地图;
c)观测:从原始捕获的信息中提取主要特征信息并将此信息返回给局部地图;
d)测量预测:预测机器人当前位姿的全局地图;
e)位置匹配:应用最邻近滤波器匹配局部地图中的观测点和预测点;
f)估计:使用扩展Kalman滤波器更新地图;
g)创建:将非相关的观测点加入地图,对机器人返回增量式地图;
h)输出地图。
制约机器人视觉系统性能的重要因素是信息实时处理的计算复杂度和处理效率,SLAM算法需要在地图密度与计算效率之间取得权衡。
3.3无环境地图
在这类系统中,机器人不需要依赖任何的环境地图信息,机器人的活动取决于其当时识别和提取出来的环境信息,这些环境信息可能是桌子、椅子和门等,不需要知道这些环境元素的绝对位置。无环境地图的导航技术典型的技术有3大类:基于光流的导航技术、基于外观信息的导航技术、基于目标识别的导航技术和基于目标跟踪的导航技术。
3.3.1基于光流的导航技术
光流是三维空间运动物体在观测成像面上的像素运动的瞬时速度,也是图像亮度的运动信息描述。光流法计算最初是由Horn和Schunck于1981年提出的,其利用二维速度场与灰度,引入光流约束方程,得到光流计算的基本算法。光流计算基于物体移动的光学特性提出了2个假设:①运动物体的灰度在很短的间隔时间内保持不变;②给定邻域内的速度向量场变化是缓慢的。如Santos-Victor等人研发了一种基于光流的robee视觉系统,该系统模拟了蜜蜂的视觉行为。在robee视觉系统中,使用单独的双目视觉方法来模拟蜜蜂的中心反射(Centering Reflex):当机器人移动到走廊两侧的墙壁中心时,左眼捕获场景的瞬时速度与右眼捕获场景的瞬时速度是相同的,几乎没有差别,那么机器人就可以知道他们在走廊的中心。如果眼睛两侧的眼睛的瞬时变化速度不同,则机器人移动到较慢的速度。在自动机器人导航的实现中,基于这个想法是测量摄像机捕获图像场景瞬时速度差异。这种导航技术只能用于室内单通道直走道导航,不能引导机器人改变方向,具有一定的局限性。
3.3.2基于外观信息的导航技术
基于外观的机器人导航方法,不需要构建真实的地图导航,机器人通过自身所携带的摄像头和传感器感知周围目标的外观信息进行自主定位和导航。其中,所述的外观信息多为目标信息的颜色、亮度、形状、空间大小和物理纹路等。机器人在导航时存储连续视频帧的环境图像信息,并将连续视频帧与控制指令相关联,从而再执行指令规划有效路径到达目的地。
3.3.3基于目标识别导航技术
为了达到目标点或是识别目标,机器人很多时候只能获取少量的图像信息。Kim等人提出了一种用符号代替导航各个位置的赋值方法。该赋值方法中,机器人执行命令如“去窗边”“去你后面的椅子旁”等。这样,通过相关的符号命令,机器人自动识别并建立路标,通过符号指令到达目标点。例如“去你后面的椅子旁”,这样的命令就是告诉机器人路标是椅子、路径向后。该导航技术的难点在于目标是否可以准确实时识别路标。第一,识别大量不同类别的物体,室内环境有许多不同类别的物体,需要将它们组织到一个在给定的容易搜索图像数据结构中去,起到容易识别是用什么度量来区分物体;第二,识别大量不同背景下的物体,一个合适的物体表达式有助于将图像组织成片断,而这些片断来自于物体的种类且与物体无关的;第三,在抽象层次上识别物体,机器人可以不需要在看到一个具体的杯子之前便能知道它是一个杯子,相关程序能够类似的物体进行识别和区分。
3.3.4基于目标跟踪的导航技术
基于目标跟踪的导航技术,为机器人构造一个虚拟地图,机器人通过摄像头获取连续的视频序定一个跟踪的目标,为了达到对目标的精确定位和实时跟踪,可以利用粒子滤波算法对需要跟踪的目标进行建模。基于粒子滤波的目标跟踪主要包含四个阶段,分别是初始化目标区域,概率转移,目标区域权重计算,目标区域重采样。在机器人导航之前,通过视频序列的当前几帧标注机器人所需要跟踪的目标,在导航时,机器人通过连续的视频帧感知周围的待跟踪目标,同时对所需要跟踪的目标散播粒子,当获取的视频帧对目标区域重采样后足以让机器人确定所需要跟踪的目标时,机器人通过确定的目标为自己规划最有效的路径到达目的地。获取视频序列目标跟踪是算机视觉领域中的重要分支,它在工业生产、交通导航、国防建设、航空导航等各个领域有着广泛的应用。