前言:中文期刊网精心挑选了计算机视觉的核心范文供你参考和学习,希望我们的参考范文能激发你的文章创作灵感,欢迎阅读。
计算机视觉的核心范文1
【关键词】计算机;视觉系统;框架构思
在现代计算机技术的支持下,对人类视觉功能进行模拟的计算机系统被称为计算机视觉系统,因为视觉系统本身兼具科学性和应用性,所以计算机视觉系统本身既具有科学学科的特性又具有工程学科的特性。对其的研究不仅能够进一步了解人类本身,而且能够在工业生产领域发挥更大的作用。
1 计算机视觉系统现有理论框架
1.1 计算机世界理论框架
20世纪80年代,麻省理工学院教授Marr在视觉理论研究领域获得突破,提出了利用计算机实现视觉能力的理论框架――计算机视觉理论,这一理论主要特点是以现代信息处理的方式对人类视觉能力作用机制进行了分析,并以人类的视觉能力为基础在计算机技术的支持下形成了三个不同的计算机层次。分别是计算机理论层次、表示层次和算法层次。这三个层次分别对应着人类对视觉信息进行处理的三个环节,通过各个环节的仿生设置,计算机视觉系统就能够将初步的视觉处理能力赋予计算机。这一理论中的核心是计算机理论层次,Marr认为人类的视觉能力主要是从图像中建立物体形状和位置的描述,所以在这一层次中设计者设计的主要环节是从初步获取的二维图像中提取和细化物体的三维结构和位置,并将这些信息在一个二维平面上反映出来,即三维重建。
1.2 基于知识的视觉理论框架
基于知识的视觉理论框架最早产生于20世纪90年代,最早的提出者是Lowe。认为在人类的视觉能力发挥过程中,对三维物体的实际测算是不必要的,人类的视觉能力与三维测算能力没有直接的关系,虽然使用三维测算技术也能够实现计算机视觉系统的功能,但并不是对人类视觉功能的模仿。Lowe认为在人类的视觉活动中,会将三维物体看成二维物体,也会将二维物体看成三维物体。这种现象本身并不是偶然性的,而是一种视觉作用机制的必然。既然人类肉眼能够借助一定的作用机制和处理能力实现二维的三维化,在计算机视觉系统中就完全有可能设计出这种对人类肉眼直接模拟的机制。以感知系统感知物体的二维特性,并在其基础上直接生成三维图像,而不需要借助复杂的测量过程。
1.3 主动视觉理论框架
主动视觉理论是在现有计算机理论的基础上形成的新型理论框架,是根据人类视觉功能实现的主动性提出的。在人类实现视觉功能的过程中,人类的视觉系统并不是被动的,而是会根据视觉系统的要求调动身体的其他部位进行配合的、具有主动性的,所以在人类视觉功能的发挥过程中,视觉系统是具有主动性的,人类视觉系统的视角、关注点都会是动态变化的。
基于这一理论,主动视觉理论框架认为人类的视觉活动是一种“感知――动作”过程。根据这一原则,主动视觉理论框架认为计算机视觉系统并不需要精准的三维测算系统。而应该以计算机视觉获取系统为核心,设置主动的视觉系统。这一理念在实际的应用中主要通过对图像获取系统技术参数的调整和控制来实现,例如摄像机的位置、取向、焦距、光圈等,通过对这些参数的调整图像信息获取系统就能够从不同的视角对物体进行观察,进而获取物体的三维图像信息。
2 计算机视觉理论框架中存在的问题
计算机视觉理论框架的产生极大的支持了计算机视觉系统的研发工作,但是在计算机视觉系统的实际研发工作中,也逐渐暴露出了计算机理论框架的缺陷。当前主流的计算机视觉系统框架中,计算机视觉理论是最早产生的也是唯一一种被动的计算机视觉技术。在其理论系统中更多的强调人类视觉系统的测算能力,而没有意识到人类的视觉系统是一种主观性很强的、目的性很强的信息获取系统,完全建立在测算基础上的计算机视觉理论框架是不必要的。
基于知识的理论框架,认为人类视觉系统的功能实现主要环节是反馈,强调了人类视觉活动中主观意识的指导作用。但是它过于强调系统的目的性和主观性,完全否定了计算机视觉理论,认为人类视觉系统是个完全脱离计算机的认识过程,这种认识显然是错误的,在判断物体尺寸大小、距离远近时,测算无疑是极为必然的。
主动视觉理论并不完全排除三维重建,认为计算机视觉系统的三维重建应该建立在图像获取系统的主动性上。通过改变图像获取摄像机的角度、参数对时间、空间和分辨率等进行有选择的感知,解决了计算机视觉系统认知过程中的不稳定问题,降低了计算机视觉系统实现的难度。但是在其理论框架内部缺乏主观、高层的指导,从整体上看并不完善。
3 计算机视觉系统框架的新构思
在计算机视觉系统的研究领域,三种理论构建各有优劣。但是无疑反应了当前计算机视觉系统研发的主流思想,因此计算机视觉系统框架的新构思应该在其基础上进行,致力于克服各个理论的缺点。综合比较三种理论框架,笔者认为计算机视觉理论虽然存在某些问题,但是从整体上看这一理论框架是最具实践性和操作性的,其存在的问题完全可以借助其他理论框架加以解决,因此笔者以计算机视觉理论为主体,结合基于知识的视觉理论和主动视觉理论,提出一个更加完善和通用的计算机视觉系统构架。
计算机视觉系统视觉功能实现的主体结构还是建立在计算理论结构的基础上的,将计算理论框架中的早期视觉处理环节分为图像预处理、图像分割和二维模式识别两个部分,因为图像的预处理是在平面图像基础上的简单处理,不需要主观主导意识和目的性的参与,同时图像分割和二维模式识别能够最大限度的提升后继图像处理的效果。
在早期处理完成以后,后继的中后期处理还是分别情调了二维模式识别和三维模式识别,虽然这两种模式本身的识别原理是一样的,但是其面对的对象不同,物体的模型也不同。一般来讲,在我们的世界中二维信息具有很强的重要性,图形、文字、指纹等关键二维信息在通常情况下作用更大、应用范围更广,所以计算机视觉系统矿建的新思路中,要对二维信息进行进一步的处理。
模型库提供具体物体模型的表示。知识库不但要对物体进行抽象表示而且还要对抽象知识进行推理。人类经验的积累和知识的获取是通过学习而得到的,所以加人模型库、知识库管理,并让其从输出结果中进行学习。这将使模型库和知识库更加丰富和完善。
视觉活动本身是带有目的性的,所以在有些时候视觉系统的应用确实需要视物体的实际情况来决定,有时只需识别场景中存在的是什么物体或某物是否存在,而不要求定量恢复场景中的物体。因此,在计算机视觉系统中引人视觉目的来判断输出是否满足要求。同时,用视觉目的对图象分割和二维模式识别、中期视觉处理、后期视觉处理和三维模式识别加以控制。如果需要三维重建则由主动视觉控制成象来获得景物更完整的信息。
计算机视觉系统框架是支持计算机视觉系统实现的重要基础,所以在计算机视觉系统的研发、设计工作中,对理论框架的研究具有鲜明的现实意义,本文简单介绍了现有框架思想,并分析了其各自的优缺点,最后再这些理论框架的基础上形成了计算机视觉系统框架的新构思。认为计算机视觉系统构架应该以计算机理论为基础,以视觉活动的主观性和目的性为指导,以具体的视觉实现形式为方法。
【参考文献】
计算机视觉的核心范文2
【关键词】计算机视觉;构件;表面特征;检测
表面缺陷检测以及特征提取,所涉及的范围是非常广泛的,包括了铁轨表面缺陷、带钢表面缺陷以及织物表面缺陷等。因此加强对产品的表面缺陷提取以及质量检测显得尤为重要,目前基于计算机视觉的构件缺陷检测系统已经受到国内外研究人员的重视,如何更好地将计算机视觉技术引入到产品表面质量缺陷检测中去是未来发展的重点。笔者将在下文中就此展开详细的阐述。
1.计算机视觉的基本工作原理
1.1系统结构
计算机视觉是一项涉及范围广泛的技术,他通过图像采集装置将检测目标转化为图像信号,再经过专门性的额图像处理系统最终生成具体的表面特征。具体来讲在图像处理环节米旭涛根据图像的具体像素以及图像分布和颜色、亮度、饱和度等进行目标提取,再比照系统预设的参照值得出最终的检测结果,例如尺寸大小、颜色等师傅偶合格。计算机视觉处理系统包括了光源、镜头、计算机以及图像采集装置和处理系统等,这些系统综合组成共同推动了计算机视觉系统的正常稳定运行。
1.2计算机视觉硬件设计
计算机视觉系统的硬件平台包括了照明系统、镜头相机以及图像采集装置和工控机四个部分,这四个部分缺一不可,共同组成了整个计算机视觉系统。
1.2.1照明系统
照明系统是整个计算机视觉系统的关键,尤其是在光源和照明方案的配合上更是直接影响了整个系统运行的成败。因此在照明方案的制定以及光源的选择上应该尽可能的突出物体特征参量,综合考虑对比度以及亮度等因素,将计算机视觉系统的光源与照明方案相匹配,选择需要的几何形状以及均匀度等,同时还需要结合被检测物体的表面特征几何形状。针对构件表面缺陷的照明方案,笔者认为应该选择功率相对较大的LED光源,用低角度的方式进行照明。
1.2.2相机镜头
相机系统是成像的关键,因此在相机镜头的选择上应该适用于具体的构件。一般来说相机镜头包括了两方面内容,一是线扫,二是面扫。通过二者的综合运用实现更好地成像效果。
1.2.3图像采集卡
图像采集卡主要是指在计算机视觉系统中位于图像裁剪机设备和图像处理设备之间的重要接口。是成像的中间环节,发挥着不可或缺的作用。
2.基于计算机视觉的构件表面缺陷特征提取
基于计算机视觉的构件表面缺陷特征提取可以分为为三个重要部分,分别是图像预处理部分:主要是指针对构件进行区域的定位,将非构件的部分移出计算机视觉的缺陷提取技术中去,从而降低了后续工作的工作难度;其次是进行缺陷定位,主要是指通过特定的技术和算法将缺陷从结果当中直接分离出来。第三部分是缺陷特征的提取,也是系统处理的结果部分,是通过计算缺陷的程度以及缺陷大小,从而为后期的构件维护提供参考依据。具体来说,这三个部分的操作主要体现在以下几个方面:
2.1区域定位
区域定位是减少构件处理和选择时间的关键,能够大大提高构件缺陷提取的效率。构件的表面的基本特征和大致集合框架提取是区域定位和的第一步,要将计算机区域定位和缺陷提取结合起来,更好地实现缺陷分析。要做好构件的区域定位首先需要明确构件的基本种类和特征:一是根据构件的重用方式来说,可以分为白匣子、灰匣子、黑匣子从构件的使用范围来看又可以分为通用构件和专用构件;根据构件的粒度的大小可以分为小。中大三种不同粒度的构件;再次是从构件的功能上来看可以分为系统构件、支撑构件以及领域构件三个部分。四是从构件的基本结构特征来看可以分为原子构件以及组合构件。最后从构件的状态来说,又可以分为动态和静态构件。因此从不同种类的构件进行区域定位为视觉系统正常运行创造了优良的条件。
2.2缺陷提取
在进行缺陷提取的过程中,难免会受到客观的环境影响,比如噪声、温度以及湿度等对图像处理的结果产生影响,因此需要对区域定位中产生的区域进行滤波处理,然后再采用阈值分割的办法进行缺陷提取。具体操作步骤如下所示:
(1)计算出成像中的最小最大灰度值,并且设置初始阈值。
(2)根据阈值,结合图像的分割目标,将图像分割成为目标和背景两个部分,求导出平均灰度值。
(3)再根据新的平均灰度值计算出新的阈值。
(4)观察阈值的初始值与新阈值之间的关系,如歌二者相等则整个计算过程就结束,如果不相等,则就需要进一步计算。
通过阈值计算得出啊的最佳阈值分割效果图,能够进行初步的缺陷预判,但是初步预判当中还存在较多的不确定因素,主要包括两类,一是在边缘部分出现的细小毛刺,由于与缺陷的距离较近,因此在初步缺陷提取中容易形成误判、再次是在构件表面有一些非常细小的缺陷,这些缺陷的影响较小,不会对构件的性能造成影响,因此在进行缺陷提取的过程中需要将这两个因素排除在外,具体主要是指采用图像形态学中开运算和闭运算,从而达到对构件中的明了细节和暗色细节的过滤。具体来说缺陷的分割提取采用的是Sobel算子。主要是利用了图像像素点的上下左右灰度加权算法,对构件表面的缺陷进行检测。再采用二值图像边界跟踪法,将缺陷从构件图像中分离出来。
2.3缺陷特征提取
缺陷特征提取,又可以称之为缺陷的定量计算和定性过程,是将前期所得的数据结果以更加直观的形式展现出来,通过对比指标参数判断构件的表面质量是否合格,符合基本的生产标准。一般来说常用的表示缺陷特征的标准有以下几种:
(1)周长:周长是对缺陷的边界长度的描述,在图像特征上显示则是指构件成像上的缺陷区域的边界像素数量。
(2)面积:面积相对于周长能够更加直观地反映整体缺陷的大小,它是缺陷区域中的像素的总数,因此更高体现缺陷的影响规模。
(3)致密性:这是一个相对专业的缺陷指标概念主要是指每平方面积上的平方周仓,是一个双单位描述指标。
(4)区域的质心:区域质心是描述缺陷的影响关键也就是缺陷区域内的核心区域,是对整个区域的核心描述。
(5)最小外接矩形。
3.结语
综上所述,构件表面缺陷直接影响构件的最终使用效果,构件表面缺陷的检测应用领域也逐渐广泛,而计算机视觉技术在检测缺陷中的优越性更体现了基于计算机视觉的构件表面缺陷特征提取的研究价值。本文主要针对构件表面缺陷的检测,综合计算机视觉技术提出了具体的检测方法和检测工作原理,通过对表面缺陷的检测,力图提高构件的整体质量。
【参考文献】
[1]陈黎,黄心汉,王敏,何永辉,龚世强.带钢缺陷图像的自动阈值分割研究[J].计算机工程与应用,2002,(07).
[2]许豪,孔建益,汤勃,王兴东,刘源泂.基于数学形态学的带钢表面缺陷边缘提取[J].机械设计与制造,2012,(06).
计算机视觉的核心范文3
【关键词】Opencv;计算机视觉技术;系统;研究
随着计算机技术的快速发展,计算机设备逐渐被应用到社会生活的各个方面,尤其是在当前计算机视觉技术和图像处理技术快速发展的时期,各个科技领域中的计算机视觉技术已经逐渐成熟。计算机视觉技术主要是利用计算机智能化来替代人眼,即对于客观存在的三维立体化世界的理解和识别,整个实现过程均是以计算机技术作为基础。随着计算机视觉技术的不断发展,现今其已逐渐成为了一门神经生理学、计算机工程、信号学、物理学、应用数学等综合性学科。计算机视觉技术系统其在高性能计算机基础之上来实现对大量数据的获取,并且通过智能算法来对获取数据进行处理,从而完成对数据集成。
一、视频中运动物体检测原理
对于视频中的运动物体检测主要分为两中方法,其一为宏观检测法;其二为微观检测法。宏观检测法是对获得的整幅图像进行检测,而微观检测法则是对所需要的区域进行图像检测。视觉技术在检测运动物体的时候,首先对图像进行采集,并对采集的信息数据进行预处理,将图像进行分割,然后分别提取运动物体的影象,从而实现参数的更新。图像采集过程中采用背景差分法,实现对背景图像的提取,其通过一定算法采用人为手段获取没有背景的图像。另外在进行运动物体检测的时候还可以采用帧间差分法,其主要是实时获取帧图,然后实现一帧一帧图像比值的比较,从而获取具有差值的图像。运动物体进行检测的时候需连续获取帧图,将这些帧图组合起来,其实就是物体的运动轨迹,然后同分割技术就能勾勒出物体的轮廓。随着计算机视觉技术的不断深入研究,发现此两种方法单独使用仍然存在的一些缺点,于是研究人员将二种检测方法进行融合,形成一种综合检测方法。综合检测法将两者检测方法的优势进行了融合,并将其灵活的应用到了生产和生活之中,取得了十分不错的效用。
二、基于Opencv的计算机视觉技术探究
(一)基于Opencv的运动物体检测
运动物体在进行检测的时候,基于Opencv的检测原理主要为:根据物体某项特定信息,例如,颜色、轮廓、性状等,在复杂背景中利用这些特定的信息将物体分离出来。整个图像的分离过程首先是进行视频流捕捉,然后是进行视频的格式转换,再将图像进行预处理,从而提取前景物体,减少环境因素对图像处理的误差,最后根据物体特征提取,并完成对运动物体的跟踪。从图像中提取所需的目标物体,其实质就是对整个屋里轮廓进行检测和分割,根据每个图像的帧差异来进行提取。
(二)基于Opencv图像预处理
视觉技术应用于复杂的环境之中,由于存在着光照的变化,其场景中所出现的环境因素对视频采集设备性能影响很大。环境因素会使得获取的图像信息的质量降低,并且在图像中无法避免的存在着噪点,这对于运动物体的检测和图像采集会造成很大的影响。当获取视频帧图像之后需对其数据进行预处理,通常有平滑度滤波处理、图像填充、图像背景更新等。
1.平滑度滤波处理
由于在进行视频图像采集的时候存在着噪点,那么我们就需要对其进行噪点处理,以求减小噪声。滤波平滑度滤波处理,其具有线性和非线性两种方式,其中线性方式进行处理器运算简单、运算速度快,但是在进行处理之后的图像都会呈现不清晰的情况。而非线性方式尽心给处理之后,虽然能够很好的减小噪点,确保信号的局部特点,但是其运算的速度会较慢。
2.图像填充
对于帧图像进行处理,通常采用检测边缘填充法或者是腐蚀膨胀法来完成,其中填充法是指当检测出目标物体之后,利用边缘检测方法来对物体进行辨识,然后利用形态学的漫水填充法进行填充。图像的腐蚀膨胀则主要是由于摄像机的性能等问题造成的。
3.实时背景更新
在进行图像差分之前,需要对背景图样进行确定,并且需要对其进行初始化处理。以方便以后在进行检测时候能够对实时背景图进行差分计算,只有这样,才能够获得极佳的前景效果。在进行图像差分时,首先需要根据指定法来确定第一帧背景的图像,并将其指定为第一张背景图片,然后在检测过程中根据算法对背景实施更新。整个图像在进行更新时,其主要的流程为:判断并读取图像是否为第一帧;将Opencv处理的图像转化为单通道灰度值;将实时采集的图像进行高斯平滑度处理,去除噪点;最后使用形态学滤波处理噪点。
(三)提取前景运动物体图像
检测运动物体的时候,只有在检测流程中确保精确度,才能够获取满意的前景跟踪效果。此过程中主要分为两个步骤,第一步为二值化图像之后进行分割;第二步,图像分析前处理,进行充分填充,确保前景图的完整性。其中,前景图的提取主要分为下面几个步骤:首先对前景图像和背景图像进行差分,然后对差分的图像进行二值化,再对背景中的前景图像边缘进行检测,根据轮廓进行填充图像。由于摄像头存在于不同的场景和环境之中,不论是室外或者是室内随着场景的变化都会对图像的采集产生影响。那么在前景图中提取目标就需要在检测系统中采用有效手段来完成背景实时更新。
阀值二值化分割法可以对检测的物体进行前景和背景差图分割,从而使目标物体能够分离出图像,且阀值分割先要确定每个像素的点是否处于灰度范围值之内。将图像中的像素灰度与确定的阀值进行比较,其结果解释所有像素点分为2类,一类像素的灰度小于阀值,另外一类就是大于阀值。阀值二值化分割时,确定分割的阀值T,然后分割图像。选取合适的阀值进行分割,可以有效的减少光照因素影响,常用的动态阀值主要有直方图来法与最大类方差法这另种分割方法。
三、计算机视觉三维技术
计算机视觉技术的核心为分割问题、运动分析、3D立体场景重构等,立体视觉主要是从多幅图像的参照中获取目标物体的三维几何信息。计算机视觉所模拟出的3D立体画面只需要摄像机从不同的角度同一时间针进行图像捕获,将2D信息进行3D重构,进而将计算机程序重建于真实的三维场景之中,以恢复物体的真实空间信息。
(一)视觉系统
视觉系统捕获图像的过程,实则可以看成为对大量信息进行处理过程,整个系统处理可以分为三个层次,其一,理论层次;其二,描述层次;其三,实现层次。在摄像机视觉系统之中,输入的是2D图像,但是输出为3D信息,而这就可以实现对图像的位置、距离等信息的如实描述。视觉系统分为三个进阶层次,第一阶段为基础框架;第二阶段为2.5D表达;第三阶段为三维阶段。在第二阶段中实现的2.5D表达,其原理是将不完整的3D图像信息进行表达,即以一个点为坐标,从此点看去某一些物体的部分被遮挡。第三阶段的三维阶段,则是人眼观察之后可以从不同的角度来观察物体的整体框架,从而实现了将2.5D图像信息的叠加重合运算,进一步处理之后得到了3D图像。
(二)双目视觉
人们从不同角度观看同一时间内的同一物体的时候,可以利用算法测量物体间的距离。此法被称为双目立体感觉,其依据的原理是视觉差原理,利用两台摄像机或者一台摄像机,对两幅不同的图像进行不同角度观察,并且对其观察的数据进行对比分析。实现双目立体视觉与平面视觉图像获取,其主要的步骤为:
(1)图像获取
从两台不同的摄像机,捕获帧图像,由于环境因素会造成图像差异困难。为了更好的跟踪目标、检测,当捕获图像之后,需要对图像进行预处理。
(2)摄像标定方式
获得真实坐标系中的场景点中的与平面成像点占比见的对应关系,借用三维立体空间中的三维坐标,标定之后确定摄像机的位置以及属性参数,并建立起成像的模型。
(3)特征提取方式
所谓的特征提取方式主要是为了提升检测、跟踪目标的准确性,需要对目标物体进行特征提取,从而实现对图像分割提取。
(4)深度计算
深度信息主要是根据几何光学原理,从三维世界进行客观分析,因为距离会产生不同的位置,会使得成像位置与两眼视网膜上有所不同。简单来说,客观景物的深度可以反映出双目的视觉差,而利用视觉差的信息结合三角原理进行计算,可呈现出深度的图像信息。
(三)摄像机模型
摄像机在标定过程中确定了其建立的基础为摄像机的模型,摄像机模型在标定过程中关系到三个不同坐标系的转换,分别为2D图像平面坐标系、摄像机自身坐标系以及真实的世界坐标系。摄像机在摄像的时候起本质是2D图像坐标转换,首先要定义摄像机的自身坐标系,将坐标系的原点设置为光心,X、Y、Z成立三维坐标系。其次则是建立平面的图像坐标系,用以透视模型表示,其原点也在广心的位置,称之为主点。实际应用中,物理的距离光心的位置d≠f焦距,而且会远远大于焦距,为了解决如此问题就提出了平面概念。在光轴z上设置一个虚拟的图像平面,然后在此位置于平面关于光心对称。接着,在设置的虚拟2D坐标系中,光轴和原点重合,并且摄像机与垂直平面的垂直方向相同,真实图像上的点影射到摄像机坐标系。
(四)3D重构算法
视频流的采集,主要是采用Kinect设备、彩色摄像头、红外发射摄像头、红外接收摄像头。使用微软提供API控制Kinect设备,在操作之前需调用NUI初始化函数,将函数的参数设置为用户信息深度图数据、彩色图数据、骨骼追踪图数据、深度图数据。上述的视频流的打开方式不同,既可以是一种打开方式,也可以是多种打开方式,尤其在进行Kinect传输数据处理的时候,需遵循三条步骤的运行管线。此三条管线分别为:第一条为处理彩色和深度数据,第二条为根据用索引添加颜色信息,并将其放入到深度图之中,第三条为骨骼追踪数据。
四、总结
随着计算技术的快速发展,视觉技术逐渐被广泛的应用于我们日常的研究之中。本文通过对视觉技术的相关问题进行分析,探究了图像处理、分割、前景提取、运动物体观测以及重构3D图等问题,为实现视觉技术更加深入研究做出了相应的贡献;为广大参与计算机视觉技术研究同仁提供一个研究的思路,为实现视觉技术的腾飞贡献薄力。
参考文献
[1]张海科.基于Opencv的人手识别与跟踪定位技术研究与实现[D].云南大学,2013.
计算机视觉的核心范文4
【关键词】动态图像序列;自动扶梯;客流量;测量
视频处理技术的产生和发展使得其应用范围越来越广泛,在这之中,动态图像序列处理技术因其在监控和管理方面的智能化特点,有着非常广泛的应用前景,其在自动扶梯客流量测量分析方面的应用为保证大型场所中自动扶梯的安全性提供了保障,对其进行研究是有着非常重要的意义的。
一、自动扶梯与其客流量
自动扶梯的定义是,由一台特种结构形式的链式输送机和两台特殊结构型式的胶带输送机所组合而成的,用以在建筑物的不同层高间运载人员上下的一种连续运输机械。其主要部件包括梯级、梯级驱动装置、驱动主机、传动部件、紧张装置、扶手装置、金属结构、梯级导轨、上下盖板、梳齿板、安全装置和电气控制系统等。自动扶梯具有连续性强,运输量大的特点,在人流集中的场所有着广泛的应用,比如在商场、飞机场、火车站、地铁站以及一些大型的娱乐场所中都可以看见人们利用自动扶梯来达到移动的目的。
自动扶梯的工作流程为:自动扶梯的梯级链作为扶梯的核心部件,一系列的梯级与两根牵引链条连接在一起,在按一定线路布置的导轨上运行即形成自动扶梯的梯路。牵引链条绕过上牵引链轮、下张紧装置并通过上、下分支的若干直线、曲线区段构成闭合环路。这一环路的上分支中的各梯级(也就是梯路)应严格保持水平,以供乘客站立。上牵引链轮(也就是主轴)通过减速器等于电动机相连以获得动力。扶梯两旁装有与梯路同步运行的扶手装置,以供乘客扶手之用。扶手装置同样由上述电动机驱动。为了保证自动扶梯乘客的绝对安全,在扶梯的主要部件处还装设多种安全装置,当扶梯有发生意外的倾向时,电气系统能及时的制停扶梯。
自动扶梯作为一种凭借运输带进行人员运输的工具,在大型场所的人员运输方面发挥着不可或缺的作用。当行人在自动扶梯的任意一端踏上梯级,就能被自动带到自动扶梯的另一端。扶梯可以一直保持相同的行走方向,但是绝大多数的自动扶梯可以根据时段和人流的需求,由管理人员对其行走方向进行控制。
自动扶梯在实际应用中,由于乘客自身情况存在差异性,因此并不能保证自动扶梯的每节台阶上都能满足理论上的人数设计,另外,在自动扶梯连续运转时,也不能保证乘客都能准确站在台阶上。因此,自动扶梯的实际运送能力与理论水平还是存在一定的差距。因此,为了保证自动扶梯的安全性,就要采取一定的措施对自动扶梯的客流量进行测量和分析。
二、计算机视觉系统
随着计算机技术的发展,计算机视觉研究的技术也越发成熟,目标检查和跟踪技术作为其中一个十分重要的部分引起了人们的广泛关注。
人类通过多种感觉器官形成对外界环境的感知,而在这些感知信息中,绝大多数的信息都是通过视觉,即通过人眼获得的。视觉作为一种高清晰度的媒介,能够在外界环境中实现信息的获得,还能对获得的信息进行处理、存储和传输。而为了填补智能机器在这个领域中的空白,从而实现捕获图像并对图像的属性进行描述及理解的目的,计算机视觉这门学科便应运而生。
计算机视觉的原理就是利用成像系统来代替视觉器官作为输入手段,利用计算机来代替人脑作为处理和解释的系统,从而使计算机能够实现如人一样的功能,通过视觉上观察到的事物和状况来理解、解释当前的事项,并依据视觉系统观察到的不同状况,自动做出适合当前状况的处理。但是要想达到这个目标,是要经过长久努力的,因此,人们在实现最终目标之前,首先确立了一个中期目标,这个中期目标就是建立起一种视觉系统。此视觉系统能够达到一定程度上的智能化,依据视觉敏感度和反馈完成一定的任务。自主车辆的直觉导航系统就是计算机视觉的一个重要的应用实例,然而,截止目前,还未能实现同人一致的对于任何环境都能进行识别和理解的能力,对于自主导航系统的实现还存在一定的差距。基于此,人们又将研究目标转向了高速公路上的道路跟踪能力,从而实现视觉辅助驾驶系统的开发,避免车辆在行驶的过程中与前方车辆发生碰撞。
需要特别指出的是,在这种计算机视觉系统中,计算机在其中的作用只是代替人脑的作用,但并不代表计算机就一定要按照人类视觉方法来处理视觉信息。计算机在处理视觉信息时,还是应该依据计算机系统本身的特点来进行,但是人类视觉系统作为目前为止人们所知的、功能最为强大和完善的视觉系统,还是应该作为计算机视觉研究的指导方向和启发方向。而这种由计算机信息处理的方法来研究人类视觉并建立起人类视觉的研究,被称为计算视觉,也是计算机研究中一个重要的研究领域。
随着人们逐渐步入信息时代,计算机技术广泛渗透于各个领域。究其原因,主要是因为很多没有经过专业计算机训练的人也要使用计算机,同时,计算机随着科学技术的不断发展,其功能性也在不断地增强。然而,这也相应为计算机的使用带来了一定的弊端,比如,计算机的使用方法也变得越来越复杂,这就在一定程度上导致了人本身的灵活性与计算机使用时的死板要求形成了强烈的反差和矛盾。前者可以通过听觉、视觉等各种感官知觉与外界进行信息交换,还可以通过大脑的处理,用不同的方式传达相同的意义,而计算机却只能依照之前编写的程序语言来运行程序来实现运行的目的。因此,为了能方便更多的人应用复杂的计算机,就必须要通过一些有效的措施来改变从前计算机为主体,人去适应计算机的状况,而应该以人为本,交换主体,让计算机来适应其使用者的需求和习惯,以人的习惯为要求指向,让计算机具有听觉、视觉等能力。同时,计算机还需要具有一定的逻辑推理能力和决策能力。而这种计算机即智能计算机。智能计算机的出现,使计算机的使用更加方便和人性化,以智能计算机为基础的系统也为各个领域的发展带来了巨大的促进作用,替代了很多繁重的工作,提高了工作效率,并且保证了工作人员的作业安全。
同时,在计算机视觉研究领域,运动目标的检测识别和跟踪技术一直都是一个热点问题,其对识别精度和实时性要求更高,其算法的好坏会给结果的稳定性和精准度带来直接的影响。而这些方法的实现都是基于动态图像序列。
三、基于改进型Hausdorff距离的人体检测
自动扶梯客流量的测量工作是极具现实意义的,通过对大型场所内自动扶梯的客流量进行测量,可以有效对客流量进行控制,提高人员和建筑的安全。而测量工作的实现是基于摄像头获得的动态图像序列,并通过序列进而识别出人数和即时速度。为了能够准确识别出自动扶梯上的各个人体,可以采用Hausdorff距离识别方法。这种方法即使在有光线问题或者遮挡问题导致人体特征现象发生时,也能完成对人体的识别。而Hausdorff距离模板又具有适应性强且计算量小的优点。但是在很多应用场合中,一旦被测图像中有些边缘信息消失或者存在大大量与人体特征无关的点时,这种距离模板的匹配就不能达到令人满意的效果。
Hausdorff距离的模板匹配及其缺陷
Hausdorff距离是用来描述两组点集间相似度的量度,是一种集合之间的定义形式。若设A、B为两个有限点集,则Hausdorff距离则可表示为:
H(A,B)=max(h(A,B),h(B,A)) (1)
h(B,A)=max{mina-b} (2)
当Hausdorff距离用于二值模板与图像之间的匹配时,首先要计算这两个二值图像的距离变换。由(2)计算出有向距离,再由(1)得出Hausdorff距离的值,从而判断出匹配情况。但是需要特别指出的是,一旦图像中存在突发的噪声时,Hausdorff距离值也可能变得很大,从而造成目标物体不能被有效检测。另外,当所测目标物因为光线的问题或者遮挡问题只有部分物体特征呈现出来时,Hausdorff距离的值也可能会很大,也就是说目标物体还是得不到检测。
针对以上方法存在的缺陷,为了进一步提高此方法的稳定性,对(2)进行了改进,有相距离表示为:
从而通过对不同区域下的界定就可以有效去除二值匹配过程中干扰因素的影响。
基于滤波的目标预测跟踪
可以采用滤波器进行预测和跟踪匹配位置中心点。此处滤波器将被用于匹配中心点在下一图像中的位置,假设这两个坐标之间不相关,则就可以实现对这两个中心点的分别预测和跟踪,极大提高了算法的执行效率。而在下一帧中检测目标时,就可以缩小搜索范围。这不仅使得该算法的执行速度得到了提高,还使之更适于自动扶梯客流量状况测量的实时操作。
四、结语
自动扶梯客流量的测量对于扶梯的安全使用有着重要的意义,相信随着科学技术的不断发展和科研人员的不懈努力,在不久的将来,一定会出现更为方便、准确的测量方法,并在各个领域上得到有效应用,为计算机视觉系统的发展提供坚实的基础。
参考文献
[1]贤云得.机器视觉[M].北京:科学出版社,2004.
[2]张强.动态图像序列中目标检测与跟踪技术研究[D].华北电力大学,2012.
计算机视觉的核心范文5
关键词:目标跟踪;CAMSHIFT算法;OpenCV;颜色直方图
中图分类号:TP391文献标识码:B文章编号:1004373X(2008)2012803
Moving Object Tracking Method and Implement Based on OpenCV
LI Zhenwei1,2,CHEN Chong1,2,ZHAO You1
(1.Changchun Observatory,National Astronomical Observatories,Chinese Academy of Sciences,Changchun,130117,China;
2.Graduate School,Chinese Academy of Sciences,Beijing,100049,China)
Abstract:CAMSHIFT is an object tracking algorithm based onthe color histogram.In the process of object tracking,CAMSHIFT operates on a color back-projection image produced from object histogram model in current frame and finds the location and size of the current frame by adaptively adjusting the size and the location of the searching windows according to the tracking results of the previous frame in the video.On the basis of introducing OpenCV(an Intel open source computer vision library),through CAMSHIFT algorithm,the paper realizes moving object tracking and resolves some problems including distractor and occlusion by other objects.Experimental results show good performances,superiority and feasibility of the algorithm.
Keywords:object tracking;CAMSHIFT algorithm;OpenCV;color histogram
目标跟踪是计算机视觉的一个重要分支,日益广泛应用于科学技术、国防安全、航空、医药卫生以及国民经济等领域。实现目标跟踪的关键在于完整地分割目标、合理提取特征和准确地识别目标,同时,要考虑算法实现的时间,以保证实时性。当视频图像中被跟踪目标发生姿态变化,存在旋转或部分遮挡时,简单的灰度模板或者Hausdorff距离匹配一般很难达到实时跟踪目标的要求,出现误匹配或者跟踪丢失的情况,而且跟踪效率较低。
Gary R.Bradski提出的CAMSHIFT[1](Continuously Adaptive Mean Shift)算法是以颜色直方图为目标模式的目标跟踪算法,可以有效地解决目标变形和部分遮挡的问题,而且运算效率很高。该文首先详细介绍CAMSHIFT算法,并结合Intel公司开发的开源OpenCV计算机视觉库,实现了运动目标跟踪,并验证了CAMSHIFT算法的有效性以及展现OpenCV计算机视觉库的灵活性和优越性。
1 CAMSHIFT算法
由于RGB颜色空间对光照亮度变化比较敏感[2],为了减少光照亮度变化对跟踪效果的影响,CAMSHIFT算法将图像由RGB颜色空间转化到HSV(Hue,Saturation,Value)颜色空间再进行后续处理。
图1是CAMSHIFT算法流程。首先选择大小为S的初始搜索窗口,然后对该窗口中每一个像素点的H通道上采样,得到运动目标的色调(Hue)直方图,再将该直方图保存下来作为搜索目标的颜色直方图模型。在目标跟踪过程中,对摄像头当前帧图像的每一个像素,通过查询目标的颜色直方图模型,可以得到该像素为目标像素的概率。经上述预处理,视频中每一帧图像都转化为目标颜色概率分布图,也称为目标颜色投影图。在一般情况下,将投影图转化为8位的灰度投影图,概率为1的像素值设为255,概率为0的像素值为0,其他像素也转换为相应的灰度值。
图1中虚线部分是CAMSHIFT算法的核心。设点(x,y)为搜索窗口中的像素位置,I(x,y)是投影图中(x,y)处的像素值。为此,定义搜索窗口的零阶矩M00和一阶矩M01,M10分别如下:
M00=∑x∑yI(x,y)
M01=∑x∑yyI(x,y)
M10=∑x∑yxI(x,y)
图1 CAMSHIFT算法跟踪流程
该搜索窗口的质心位置为:
(xc,yc)=(M10/M00,M01/M00)
计算跟踪目标的方向和尺寸:
二阶矩:
M20=∑x∑yx2I(x,y)
M02=∑x∑yy2I(x,y)
M11=∑x∑yxyI(x,y)
令:
a =M20 /M00 -x2c,b=2(M11/M00-xcyc),
c =M02 /M00 -y2c
目标长轴的方向角为:
θ=12tan-1(ba-c)
图像中目标的长轴和短轴的长度计算公式:
l=(a+c)+b2+(a-c)22,
w=(a+c)-b2+(a-c)22
然后,根据零阶矩M00调整搜索窗口的大小,并将搜索窗口的中心移动到质心,如果移动距离大于预先设定的固定阈值,则重新计算调整后的窗口质心,进行新一轮的窗口位置和尺寸调整,直到窗口中心与质心间的距离小于预设的固定阈值,或者循环运算的次数达到某一最大值,认为收敛条件满足,进入下一帧图像进行心的目标搜索。在下一帧图像中,利用上一帧图像中最终得到的窗口质心位置和S=2M00256来设置新的搜索窗口位置和尺寸。CAMSHIFT跟踪算法在视频单帧内与帧间都根据上一步得到的M00自适应地调整搜索窗口的大小,因而可以适应跟踪目标动态变形的情况。
2 计算机视觉类库OpenCV简介
开放源代码的计算机视觉类库OpenCV( Intel@ Open Source Computer Vision Library)由英特尔公司位于俄罗斯的研究实验室所开发,它是一套可免费获得的、由一些C函数和C++类所组成的库,用来实现一些常用的图像处理及计算机视觉算法。
OpenCV主要用于对图像进行一些高级处理,比如说特征检测与跟踪、运动分析、目标分割与识别以及3D重建等。
与其他计算机视觉工具相比,OpenCV的优越性如表1所示:
表1 图像处理、计算机视觉工具比较(IPL,openCV,IPP,visDSK与 Matlab)
开发工具开发单位应用领域免费情况源码公开与否备注
IPLIntel图像处理Free不公开已被并入到IPP
OpenCVIntel图像处理、计算机视觉Free公开基于Intel芯片代码优化
IPPIntel集成开发环境库(图像处理、信号处理等)Not free不公开基于Intel芯片代码优化
VisDSKMircrosoft图像处理Free公开无优化
MatlabMathWorks多学科、多种工作平台Not free不公开速度慢,不宜编译成可执行文件
OpenCV是Intel公司开发的图像处理和计算机视觉函数库,它有以下特点:
(1) 开放C及C++源码;
(2)基于Intel处理器指令集开发的优化代码;
(3)统一的结构和功能定义;
(4)强大的图像和矩阵运算能力;
(5)方便灵活的用户接口;
(6) 同时支持MS-Windows,Linux平台;
(7) 在速度上OpenCV还有Intel 公司的mmx和ssl优化。
2.1 OpenCV的数据结构
OpenCV设计一些基本数据类型,基本的数据类型包括:图像类的IplImage,矩阵类的CvMat,可变集合类的CvSeq,CvSet,CvGraph以及用于多维柱状图的混合类CvHistogram。辅助数据类型包括:用于表示二维点坐标的CvPoint,用于表示图像宽和高的CvSize等。
2.2 OpenCV的函数体系
OpenCV中每个函数的命名都以“cv”开始,然后是该函数的行为及目标。例如用来创建图像的函数“cvCreateImage”,载入图像的函数“cvLoadImage”。OpenCV是为图像处理及计算机视觉在实际工程中的应用而设计的一个类库,其中所有的函数都由于其在实际应用中所实现的不同的功能而分属不同的类型,主要的函数类型有:
(1) 基本的图像处理与分析函数。
这个类型的函数主要用于实现一些基本的图像处理与分析功能,例如图像平滑函数cvSmooth,Sobel算子cvSobe,l Canny边缘分割函数cvCanny等。
(2) 结构分析函数。
包括有轮廓处理函数,几何学函数以及平面细分函数。
(3) 运动分析与目标跟踪函数。
包括有用于运动分析与目标跟踪的函数,例如背景重建函数cvAcc,用光流法或动态轮廓模型来实现目标跟踪的函数cvCalcOpticalFlowBM和cvSnakeImage以及卡尔曼滤波函数CvKalman等。
(4) 摄像机标定和3D重建函数。
包括有用于摄像机标定,姿态估计以及从两个摄像机进行3D相似重构的函数。
(5) GUI与视频处理函数。
包括有高级图形用户接口highGUI用以实现对图像的载入、显示及保存等基本操作以及用以实现视频输入输出及处理的函数。
3 CAMSHIFT算法实现
在OpenCV库中,CvCamShiftTracker类就是用来实现CAMSHIFT算法的,使得进行二次开发变得很简单。该函数为:
int cvCamShift( const CvArr* prob_image,CvRect window,CvTermCriteria criteria,CvConnectedComp* comp,CvBox2D* box=NULL );
prob_image:目标直方图的反向投影
window:初始搜索窗口
criteria:确定窗口搜索停止的准则
comp:生成的结构,包含收敛的搜索窗口坐标 (comprect 字段) 与窗口内部所有像素点的和 (comparea 字段).
box:目标的带边界盒子。如果非 NULL,则包含目标的尺寸和方向。
利用该函数,在VC6.0开发环境下,就容易实现CAMSHIFT算法跟踪运动物体,图2是程序界面:
图2 CAMSHIFT跟踪界面
4 实验结果与分析
在本实验中,用一个摄像头来跟踪一运动物体,下面图3~图6一系列图像是采用CAMSHIFT算法跟踪运动物体部分图像。
图3 摄像头拍到的场景
图4 手动选中的目标物体
图5 物体快速移动时跟踪目标
图6 物体发生旋转、变形时跟踪目标物体
由此可见,基于颜色直方图的CAMSHIFT算法可以有效地解决目标变形和旋转问题,而且运算效率很高,可以实时跟踪运动目标。
5 结 语
本文在详细分析CAMSHIFT算法原理的基础上,采用Intel公司开发的OpenCV视觉库,在VC6.0开发环境下,实现了运动目标实时跟踪,解决了目标旋转、变形、部分遮挡问题。同时,可以看到,在开源库OpenCV的基础上,根据自己所开发应用程序所要实现的功能选择所需的库函数,能够大大减少在计算机视觉领域中的开发时间和精力,缩短程序开发的周期。
参考文献
[1]Bradski G puter Video Face Tracking for Use in a Perceptual User Interface[J].Intel Technology Journal,1998,2:214-219.
[2]Boye M.The Effects of Caputre Conditions on the CAMSHIFT Face Tracker[R].Alberta,Canada:Department of Computer Science,University of Calgary,2001.
[3]Comaniciu D,Ramesh V,Meer R.Real-time Tracking of Non-rigid Objects Using Meanshift[A].Proceeding of the IEEE Conference on Computer Vision and Pattern Recognition[C].Dublin,Ireland,2000,2:142-149.
[4]张宏志,张金换,黄世霖,等.基于Camshift的目标跟踪算法[J].Computer Engineering and Design,2006,27(11):2 012-2 014.
[5]刘雪,常发亮,王华杰.基于改进Camshift算法的视频对象跟踪方法[J].微计算机信息,2007(21):297-298,305.
[6]孙鑫,余安平.VC++深入详解[M].北京:电子工业出版社,2006.
[7]刘瑞祯,于仕琪.OpenCV教程基础篇[M].北京:北京航空航天大学出版社,2007.
[8]Intel Open Source Computer Vision Library Reference Manual[EB/OL]./research/mrl/research/opencv/.
[9]/hunnish.
[10]/group/OpenCV.
作者简介 李振伟 男,1983年出生,河南安阳人,硕士研究生。研究方向为视频运动目标跟踪。
陈 硕士研究生。
计算机视觉的核心范文6
关键词:目标跟踪技术;意义;问题;解决方法
中图分类号:TP18 文献标识码:A 文章编号:1009-3044(2015)02-0171-01
1.目标跟踪研究技术分类
1.1图像序列中目标跟踪技术
在图像中,根据点与点之间的关系,可以通过相邻两幅图像的点集中用以实现跟踪目标。同样的,根据线在目标跟踪中的使用,可以更加清晰的分解出图像的轮廓信息用以描述目标图像。更进一步,可以将面应用于目标跟踪,了解整个区域的外观信息,在经过后期的优化和分类处理实现目标跟踪。
在图像识别中,可以根据图像本身的空间位置相互依赖的关系以及图像块与图像块之间的关系在建立模型和构造置信度图的时候,融合空间的上下文信息。使得建立的目标跟踪的模型更加具有科学的根据,同时置信度图更加精确,更利于研究目标跟踪。
1.2视频序列中目标跟踪技术
目标跟踪可以通过对视频序列中正在运动的目标进行分析检测、提取数据、更进一步的进行识别和跟踪。这样的过程中,可以获得目标运动的参数,例如移动速度、加速度、运动的轨迹等,再将所得的结果进行下一步的分析处理,以此实现对目标的理解以完成任务跟踪的目的。
对于目标跟踪和测量可以分为三个阶段。首先,有目标的检测和特征提取,在这两个阶段中,需要一定的理论知识和灵活的应变能力,可以根据场合的不同进行不同的设计。第三个阶段就是目标的跟踪,简单来说可以理解为目标初始状态和特征提取从而得到目标视觉特征,以此为基础,进行时间和空间相结合对目标的状态进行估计。因此,一个良好的跟踪系统必须能满足顾客准确、实时、可靠的要求。“准确”顾名思义,就是要提高目标跟踪的精准度,最低的要求即要可以跟踪出目标的大致位置,高的要求下必须给出目标的准确方位。“实时”是指的跟踪目标信息的更新速度,数据的输出速度必须要在物体的实际运动速度内,满足控制系统的动态指标要求。“可靠”则是要求目标跟踪结果的真实可靠性,过程必须保证稳定,即使是在跟踪失败的情况下,也要求具有良好的恢复能力。只有满足以上三点,才能达到很好的综合性能。
2 目标跟踪研究技术意义
2.1 在民用领域的意义
在民用领域中,目标跟踪技术研究的新兴方向是拥有核心技术的智能化视频监控。智能化视频监控是高层计算机视觉技术,简单描述则是摄像机进行前期采样,通过视频序列图,对其中的信息进行更进一步的分析和理解,从而实现视频监控系统的智能化。例如有的视频监控中可以智能识别场景内人的行为和语言对话。从而可以甄别出危险的人员自动报警。在交通管理中,也可以通过智能检测实现对车辆的管理,实时监控道路车流量和对异常的车辆进行调查,可以很大程度上减少交通事故的发生,和更快速的进行事后处理。
2.2在军事领域的意义
在军事领域中,目标跟踪技术对于增强国防有很大的意义。视频监控可以及时掌握战争中的环境和更快速地对敌方的目标进行搜索和跟踪。对于环境的掌握和检测有利于寻找和提取目标和场景、还有摄像机的机位等信息来进行实时的反馈控制,可以了解敌方动态在战争中处于主导地位。还可以将目标跟踪技术和机器人技术结合,研究机器人视觉导航系统,安装在机器人体内的摄像机可以实现实时环境检测,获取更为详细的环境信息。同时,目标跟踪中的智能视频监控也有利于发现边防的不利状况和嫌疑人员,更大程度上保护我国军事机密。
3 目标跟踪研究技术应用
3.1在道路车辆监控上的应用
在现实生活中,可以利用目标跟踪技术实时监控道路上的车辆,在移动过程中,车辆在视窗中的大小和形状会发生特定的变化。例如我们可以选取一组在实际环境中拍摄的照片进行研究,车辆由近及远的移动过程中,车辆目标区域的形状会慢慢变小,目标形状变化不大会取得比较成功的跟踪效果。但是存在缺陷的是,目标变小时,跟踪的准确性也随之变小,有时所反应的结果已经偏离了目标所在的实际位置。导致目标跟踪出现问题,甚至错误的跟踪了其他目标。因此,在道路中车辆的监控方面,还要进一步改正,加强精准度,才能让科技更好为交通事业做出贡献。
3.2在矿井安全监控中的应用
在生活中,井下工作是安全风险最大的工作之一。可以利用目标跟踪技术,对井下危险区域运动目标进行检测和跟踪,在这样的检测下,可以提前得到风险预测,提前预警可以有效防止危险事故的发生。利用数学领域的利用背景建立模型和利用背景差法在线有效的调节速率,这种方法可以应对光线的变化和突变的环境下对移动目标的监控,利用目标跟踪技术在发生突发状况时可以准确的定位和实时的跟踪目标。可以提高突发事故的存活率,给矿工们的生命多一层保障。
3.3在社会生活中的作用
在社会工作中,未来发展的趋势电子化越来越普及于生活的任何角落,与现有阶段的键盘和鼠标表达思想不同,未来的人和计算机的交互影响应该会更加方便,科学家希望计算机能够像一个人一样善解人意,这就需要计算机能够读懂人类的语言、表情、手势、动作等。利用目标跟踪技术,实现视频的智能化,计算机可以通过采集人们的动作图像等进行分析,更理解场景中的人和事。例如在医疗领域,可以利用这个智能的电脑来监护生病的儿童和老人,他可以很快的明白病人的需求,所以可以更好的照顾从而促进医疗事业的革新;在教育领域中,利用视频智能的分析技术,比普通老师更快的了解学生对于知识的掌握了解情况,判断学生的学习兴趣,可以因材施教,更好更快的教好学生;在游戏时,智能的计算机能更快地了解游戏者的意图和兴趣,分析出更适合游戏者的游戏,让游戏者开心的融入氛围体验娱乐生活的乐趣。
参考文献:
[1] 丁业兵,王年,唐俊,等.基于颜色和边缘特征CAM Shift目标跟踪算法[J].华东理工大学学报:自然科学版,2012,38(l):69-74.