前言:中文期刊网精心挑选了计算机视觉概述范文供你参考和学习,希望我们的参考范文能激发你的文章创作灵感,欢迎阅读。
计算机视觉概述范文1
随着计算机技术以及图像处理技术的快速发展,计算机视觉技术作为一种新兴的技术,其被广泛应用在军事、医学、工业以及农业等领域[1]。一般而言,计算机及视觉技术应用在农业的生产前、生产中以及生产后等各个环节,其主要就是鉴别植物种类,分级和检测农产品的品质。计算机视觉相较于人类视觉而言,其具有更多的优点,能够有效提高农业的生产率,实现农业生产与管理的智能化和自动化,促进农业的可持续发展。
一、计算机视觉技术概述
计算机视觉主要是指利用计算机来对图像进行分析,从而控制某种动作或者获取某描述景物的数据,是人工智能与模式识别的重要领域。计算机视觉兴起于20世纪70年代,其涉及的学科范围较为广泛,包括视觉学、CCD技术、自动化、人工智能、模式识别、数字图像处理以及计算机等。就目前而言,计算机视觉技术主要以图像处理技术为核心,是通过计算机视觉模拟人眼,并利用光谱对作物进行近距离拍摄,运用数字图像处理以及人工智能等技术,对图像信息进行分析和研究。计算机视觉技术主要步骤包括采集图像、分割图像、预处理、特征提取、处理和分析提取的特征等[2]。
二、农业机械中计算机视觉技术的应用分析
一般而言,农业机械中计算机视觉技术的应用,主要表现在以下三个方面:一是田间作业机械中的应用;二是农产品加工机械中的应用;三是农产品分选机械中的应用。
(一)田间作业机械中的应用
在田间作业机械中,计算机视觉技术的应用较晚。近年来,由于环境保护政策的提出,在农田作业的播种、植保以及施肥机械中的应用越来越广泛。在田间作业的过程中应用计算机视觉技术时,主要应用在苗木嫁接、田间锄草、农药喷洒、施肥以及播种等方面[3]。为了有效识别杂草,对除草剂进行精确喷洒,相关研究人员分析了美国中西部地区常见的大豆、玉米以及杂草二值图像的形态学特征,发现植物长出后14~23天内能够有效区别双子叶和单子叶的效果,准确率最高达到90%。在1998年开发出Detectspary除草剂喷洒器,其能够有效识别杂草,在休耕季节时,其相较于播撒而言,能够减少19%~60%的除草剂用量。在农业生产中,农药的粗放式喷洒是污染严重,效率低下的环节,为了有效改变这种现状,Giler D.K.等研制出能够精量喷雾成行作物的装置。该系统主要是利用机器视觉导向系统,使喷头能够与每行作物上方进行对准,并结合作物的宽度,对喷头进行自动调节,确保作物的宽度与雾滴分布宽度具有一致性,从而有效节省农药。一般而言,该系统能够促使药量减少66%,提高雾滴沉降效率和施药效率,减少农药对环境产生的影响。
(二)农产品加工机械中的应用
随着信息技术以及计算机技术的快速发展,计算机视觉技术被广泛应用在农产品加工的自动化中。如Jia P等提出了图像处理算法,该算法主要是以鲇鱼水平方向与主轴的形心位置和夹角为依据,检测鲇鱼的方位以及背鳍、腹鳍、头、尾的位置,从而确定最佳的下刀位置。此外,我国的黄星奕等人在研究胚芽米的生产过程时,在不经过染色的情况下,对胚芽米的颜色特性等进行分析,得出胚芽米颜色特征的参数为饱和度S。同时利用计算机视觉系统,自动无损检测胚芽精米的留胚率,其结果与人工评定的结果大体一致。
(三)农产品分选机械中的应用
在分级和鉴定农产品的品质时,可以利用计算机视觉技术对其进行无损检测。一般计算机视觉技术不需对测定对象进行接触,可以直接利用农产品的表面图像,分级和评估其质量,其具有标准统一、识别率高一级效率高等优势。计算机视觉技术在检测农产品时,主要集中在谷物、蔬菜以及水果等方面。Chtioui Y等人提出了结合Rough sets理论,利用计算机视觉技术对蚕豆品质的方法进行评价。该理论通过不同的离散方法对石头、异类蚕豆、过小、破损以及合格等进行有效区分,并利用影色图像,对其特征参数进行分类,最终分类的结果相比于统计分类结果,两者具有较好的一致性。
计算机视觉概述范文2
关键词:计算机视觉;地图匹配;SLAM;机器人导航;路径规划
1概述
计算机视觉在人工智能学科占据重要地位,为自主移动机器人视觉导航做了深厚的理论铺垫。目前,机器人导航技术有很多种,传感器导航技术如里程计、激光雷达、超声波、红外线、微波雷达、陀螺仪、指南针、速度、加速度计或触觉等得到了普遍应用,与上述非计算机视觉导航技术相比较,计算机视觉导航技术如人眼般具有灵敏度高且可捕获的信息量大以及成本低等优点。由于室内相对室外空间比较狭小且内部环境复杂,所以普通移动机器人在作业过程中,完成躲避眼前障碍物、自主导航以及为自身找出一条可行路径等一系列操作会相对比较困难。计算机视觉导航技术可利用本身的摄像头获得室内周围的环境信息,实时对其周身的场景进行快速反馈,对视野前方障碍物进行快速识别和检测,从而确定一条高效的可行的安全路径。本文对计算机视觉导航技术进行分类研究,主要分为3类:第一类是环境地图事先已知,提前对外界环境特征进行提取和处理,建立全局地图,并将地图信息存储在机器人内存数据库中,在导航的时候实时进行地图匹配;第二类是同时定位与地图构建,移动机器人在自身位置不确定的情况下根据自身的摄像头获取周围未知环境信息,在作业时逐步构建周围的环境地图,根据构建的增量式地图自主实时定位和导航;第三类是不依赖环境地图,自主移动机器人不需要依赖任何的环境地图,其在作业活动时的可行区域主要取决于摄像头实时识别和检测的环境相对信息。
2环境地图的表示方法
目前,计算机视觉导航技术多采用栅格地图、几何地图、拓扑地图和混合地图构建环境地图信息。
2.1栅格地图
栅格地图,将栅格图像考虑为一矩形,均分为一系列栅格单元,将每个栅格单元赋予一个平均概率值,并利用传感信息估计每个单元内部内存障碍物的概率。构建栅格地图的优点是其地图表达形式直观,创建和维护比较容易;但当划分的栅格单元数量不断增多时,实时性就会慢慢变差;当划分的栅格单元越大时,环境地图的分辨率越低。
2.2几何地图
几何地图利用几何特征如点、直线、平面等来构成环境主要框架,需要知道这些特征在环境中信息的具置,所以几何地图通常使用其对应的三维空间坐标来表示。几何地图构建过程相对简单,保留了室内环境的各种重要信息,是基于计算机视觉的定位与地图构建算法中最常用的一种表示方式。但是为了完成环境的建模需要标记大量的特征,从而计算量也非常的大,降低了实时性,其重建的地图也容易出现与全局不一致的情况。
2.3拓扑地图
拓扑地图用许多节点和连接这些节点的曲线来表示环境信息。其中,每个节点相对应真实环境中的特征点(如门角、窗户、椅子、桌子角及拐角等),而节点之间的曲线表示两个节点对应的地点是相联通的。拓扑地图把环境信息表上在一线图上,不需要精确表示不同节点间的地理位置关系,图像较为抽象,表示起来方便且简单。机器人首先识别这些节点进而根据识别的节点选择节点与节点间的曲线作为可作业的路径。
2.4混合地图
混合地图主要包括3种形式:栅格一几何地图、几何一拓扑地图以及栅格一拓扑地图。混合地图采用多种地图表示,可结合多种地图的优势,与单一的地图表示相比更具有灵活性、准确性和鲁棒性,但其不同类别的地图结合起来管理会比较复杂,难以协调,增加了地图构建的难度。文献针对室内环境所建立的模型分为全局拓扑和局部几何表述部分,整体环境通过拓扑节点串连起来,维护了整体环境表述的全局一致性;而以每个拓扑节点为核心所采用的几何表述则可确保局部精确定位的实现,这样建立的几何一拓扑混合环境模型可将二者的优势都表现出来,使得移动机器人定位和地图构建同时进行,实现容易。
3基于计算机视觉的室内导航
基于计算机视觉的室内导航技术可利用摄像头捕获机器人周围环境的全部信息,对其周身的场景进行反馈,对障碍物进行快速识别和检测,从而确定一条高效的可行的安全路径。本文将计算机视觉室内导航技术主要分为3类:第一类是环境地图事先已知;第二类是定位与地图构建同时进行;第三类是不依赖环境地图。
3.1环境地图事先已知
提前对外界环境特征进行提取和处理,建立全局地图,并将地图信息存储在机器人内存数据库中,在导航的时候实时进行地图匹配,即预存环境地图。在环境地图事先已知的导航中,路标信息保存在计算机内存的数据库中,视觉系统中心利用图像特征直接或间接向移动机器人提供一系列路标信息,一旦路标被确定后,通过匹配观察到的图像和所期望图像,机器人借助地图实现自身精确定位和导航。该导航技术过程可分为以下步骤:
a)图像获取:摄像头获取其周围的视频图像;
b)路标识别及检测:利用相关图像处理算法对图像进行一系列预处理如进行边缘检测和提取、平滑、滤波、区域分割;
c)路标匹配标志:在观察到的图像和所期望图像之间进行匹配,搜索现有的路标数据库进行标志路标;
d)位置计算:当有特征点进行匹配时,视觉系统会根据数据库中的路标位置进行自身精确定位和导航。
在基于计算机视觉的地图匹配定位过程中,主要有2种地图匹配较为典型。
①已知起点,已知地图。这种条件下的定位称为局部定位,采用的是一种相对定位的方法,如图1所示为其位姿估计过程,这种情况目前导航技术研究得最多。
②不知起点,已知地图。这种条件下的定位称为全局定位。当机器人需要重置时,通常使用这种定位方法来检索机器人的当前位置(即姿态初始化)。常用的辅助方法是在环境中添加一些人造信标,如无线收发器,几何信标,条码技术,红外或超声波接收系统进行位置识别,利用视觉系统识别自然标志,自主定位。
3.2定位与地图构建同时进行
不知起点,不知地图。SLAM技术最早由Smith等人于1986年提出,移动机器人在自身位置不确定的情况下根据自身的摄像头获取周围未知环境信息,在作业时逐步构建周围的环境地图,根据构建的增量式地图自主实时定位和导航。在日后的导航研究中,混合地图中的几何一拓扑混合环境模型被得到广泛应用,主要用来解决SLAM问题。
2003年,在解决SLAM技术难题上,Arras等人采用基于Kalman滤波器和最邻近(nearest neighbor)匹配策略的随机地图创建方法。下面是该算法步骤:
a)数据采集:首先初始化系统,从摄像头传感器采集距离数据;
b)状态预测:视觉系统预测机器人运动状态,实时返回新位姿信息和协方差矩阵,预测地图;
c)观测:从原始捕获的信息中提取主要特征信息并将此信息返回给局部地图;
d)测量预测:预测机器人当前位姿的全局地图;
e)位置匹配:应用最邻近滤波器匹配局部地图中的观测点和预测点;
f)估计:使用扩展Kalman滤波器更新地图;
g)创建:将非相关的观测点加入地图,对机器人返回增量式地图;
h)输出地图。
制约机器人视觉系统性能的重要因素是信息实时处理的计算复杂度和处理效率,SLAM算法需要在地图密度与计算效率之间取得权衡。
3.3无环境地图
在这类系统中,机器人不需要依赖任何的环境地图信息,机器人的活动取决于其当时识别和提取出来的环境信息,这些环境信息可能是桌子、椅子和门等,不需要知道这些环境元素的绝对位置。无环境地图的导航技术典型的技术有3大类:基于光流的导航技术、基于外观信息的导航技术、基于目标识别的导航技术和基于目标跟踪的导航技术。
3.3.1基于光流的导航技术
光流是三维空间运动物体在观测成像面上的像素运动的瞬时速度,也是图像亮度的运动信息描述。光流法计算最初是由Horn和Schunck于1981年提出的,其利用二维速度场与灰度,引入光流约束方程,得到光流计算的基本算法。光流计算基于物体移动的光学特性提出了2个假设:①运动物体的灰度在很短的间隔时间内保持不变;②给定邻域内的速度向量场变化是缓慢的。如Santos-Victor等人研发了一种基于光流的robee视觉系统,该系统模拟了蜜蜂的视觉行为。在robee视觉系统中,使用单独的双目视觉方法来模拟蜜蜂的中心反射(Centering Reflex):当机器人移动到走廊两侧的墙壁中心时,左眼捕获场景的瞬时速度与右眼捕获场景的瞬时速度是相同的,几乎没有差别,那么机器人就可以知道他们在走廊的中心。如果眼睛两侧的眼睛的瞬时变化速度不同,则机器人移动到较慢的速度。在自动机器人导航的实现中,基于这个想法是测量摄像机捕获图像场景瞬时速度差异。这种导航技术只能用于室内单通道直走道导航,不能引导机器人改变方向,具有一定的局限性。
3.3.2基于外观信息的导航技术
基于外观的机器人导航方法,不需要构建真实的地图导航,机器人通过自身所携带的摄像头和传感器感知周围目标的外观信息进行自主定位和导航。其中,所述的外观信息多为目标信息的颜色、亮度、形状、空间大小和物理纹路等。机器人在导航时存储连续视频帧的环境图像信息,并将连续视频帧与控制指令相关联,从而再执行指令规划有效路径到达目的地。
3.3.3基于目标识别导航技术
为了达到目标点或是识别目标,机器人很多时候只能获取少量的图像信息。Kim等人提出了一种用符号代替导航各个位置的赋值方法。该赋值方法中,机器人执行命令如“去窗边”“去你后面的椅子旁”等。这样,通过相关的符号命令,机器人自动识别并建立路标,通过符号指令到达目标点。例如“去你后面的椅子旁”,这样的命令就是告诉机器人路标是椅子、路径向后。该导航技术的难点在于目标是否可以准确实时识别路标。第一,识别大量不同类别的物体,室内环境有许多不同类别的物体,需要将它们组织到一个在给定的容易搜索图像数据结构中去,起到容易识别是用什么度量来区分物体;第二,识别大量不同背景下的物体,一个合适的物体表达式有助于将图像组织成片断,而这些片断来自于物体的种类且与物体无关的;第三,在抽象层次上识别物体,机器人可以不需要在看到一个具体的杯子之前便能知道它是一个杯子,相关程序能够类似的物体进行识别和区分。
3.3.4基于目标跟踪的导航技术
基于目标跟踪的导航技术,为机器人构造一个虚拟地图,机器人通过摄像头获取连续的视频序定一个跟踪的目标,为了达到对目标的精确定位和实时跟踪,可以利用粒子滤波算法对需要跟踪的目标进行建模。基于粒子滤波的目标跟踪主要包含四个阶段,分别是初始化目标区域,概率转移,目标区域权重计算,目标区域重采样。在机器人导航之前,通过视频序列的当前几帧标注机器人所需要跟踪的目标,在导航时,机器人通过连续的视频帧感知周围的待跟踪目标,同时对所需要跟踪的目标散播粒子,当获取的视频帧对目标区域重采样后足以让机器人确定所需要跟踪的目标时,机器人通过确定的目标为自己规划最有效的路径到达目的地。获取视频序列目标跟踪是算机视觉领域中的重要分支,它在工业生产、交通导航、国防建设、航空导航等各个领域有着广泛的应用。
计算机视觉概述范文3
[关键词]数字图像处理 OpenCV 实验教学 项目教学
[中图分类号] G642.423 [文献标识码] A [文章编号] 2095-3437(2013)09-0042-02
一、引言
目前,大多数高校的数字图像处理课程都是在引入Matlab集成的工具箱及其自带函数的基础上进行实验教学[1]。由于Matlab程序的移植性较差,学生学习完成后不能直接面对实际的软件开发和应用,难以真正提高学生的工程实践动手能力。
为了让学生既能掌握基本理论和技术,又能较容易编写算法的程序,我们在数字图像处理的教学中引入了开源的计算机视觉库OpenCV(Open Source Computer Vision Library)。该软件是以C 函数和C++类的形式实现大量图像处理算法,学生可以方便地利用OpenCV 进行图像处理算法的编程和验证,进而在VC中开发功能更强大的应用程序。相对于Matlab而言,学生不仅可以利用OpenCV 开放的源代码,以函数进行图像处理,而且可以查看算法的代码实现,更好地培养学生的编程能力[2]。
二、OpenCV概述
OpenCV是Intel公司资助的面向广大研究人员和学生的开源计算机视觉库,它由一系列C函数和少量C++类构成,实现了图像处理和计算机视觉方面很多通用算法,同时提供了MatLab等语言的接口,因此极大地方便了图像处理和视频技术的二次开发[3]。
OpenCV主要包含六大模块,其具体功能分别是[3]:(1) CV模块:包含基本的图形处理函数和高级的计算机视觉算法;(2) CVAUX模块:包含辅助的OpenCV函数,一般存放一些被淘汰的算法和函数,同时也包含一些新出现的实验性的算法和函数;(3) CXCORE模块:包含OpenCV的基本数据结构和线性代数支持;(4) HIGHGUI模块包含图像和视频的界面函数;(5) ML模块:包含一些基于统计的分类和聚类工具,模式识别算法和回归分析等;(6) CVCAM模块:负责读取摄像头数据的模块。
利用OpenCV进行程序开发具有以下几个特点[4]:(1) 独立性。OpenCV中大量的函数和类库既可以独立运行,也可以在加入其它外部库的情况下运行;(2) 跨平台性。构成OpenCV的API函数具有跨平台性,不仅能很好的支持各种不同的操作系统,也可以很好地在不同公司的C/C++编译器下工作;(3) 功能强大。OpenCV包含了线性表、树、图等基本数据结构,也包含图像滤波、边缘检测和数字形态学等数字图像处理的基本操作以及一些图像高级处理功能;(4) 高效性。OpenCV的算法都是基于动态数据结构,使用Intel处理器指令集开发的优化代码,运行速度快,处理效率高;(5) 开放性。OpenCV的源代码是开放的,程序设计者可以直接修改它的源代码,也可以将新的函数或类集成到它的库中。
三、数字图像处理的实验设置
实验是理论教学的有效辅助,对于数字图像处理这类实践性很强的课程就更加重要。通过阅读和调试算法源代码、体验算法的处理效果,学生可以加深对基础理论的理解。根据理论教学的重点难点内容,我们设计了相应的实验项目,每个项目都要求学生运用OpenCV和Visual C++编程语言框架来编写数字图像处理基本算法。
项目教学法是针对课程体系结构设计出一系列学习单元项目,项目设计围绕着具有典型性、启发性的关键问题,学生通过参与项目完成的全过程实现对课程内容系统而深入的掌握[5]。项目教学法真正实现了以学生为中心、以教学目标为中心,实现理论方法学习与实践动手能力培养的紧密结合。
本文基于项目教学法的研究,针对“数字图像处理”课程教学体系结构,并结合教学大纲与教学目标要求,同时参考国外大学的相关课程,设置了以下实验项目:
(1) 图像变换。
(2) 图像直方图均衡化。
(3) 频域图像增强。
(4) 图像边缘检测。
(5) 图像分割。
(6) 人脸检测。
通常,学生完成一个项目需要4个过程[6]:(1) 项目原理分析;(2) 项目具体流程设计;(3) 基于OpenCV的软件设计;(4) 结果展示与分析。以上每个阶段都要求学生提交阶段报告,根据学生报告反映出的问题,老师有针对性地进行指导,在解决问题中帮助学生真正掌握所学的知识,并提高动手能力。在项目法教学过程中,我们特别要注意克服项目无法完全覆盖全部知识点的局限,因此,要在项目选择与设计中综合考虑,并结合项目原理研究建立对教学体系框架和全部知识点的整体把握。
四、OpenCV处理图像的应用实例
(一)图像变换
OpenCV提供多个图像变换函数。函数cvWarpAffine利用指定的矩阵对输入图像进行仿射变换,这类变换可以用一个3×3的矩阵来表示,其最后一行为(0, 0, 1)。典型的仿射变换包括平移变换、缩放变换、剪切变换、旋转变换等。此外,函数cvWarpPerspective对图像进行透视变换,函数cvLogPolar将图像从直角坐标映射到极坐标,核心代码如下:
IplImage* dst = cvCreateImage( cvSize(256,256), 8, 3 );
cvLogPolar( src, dst, cvPoint2D32f(src->width/2,src->height/2), 40 );
图1给出了图像映射到极坐标的结果实例。
(二)图像边缘检测
图像的边缘是图像最基本的特征,是灰度不连续的结果,因而边缘检测是图像处理中的重要问题。OpenCV提供了cvSobel函数、cvLaplace函数和cvCanny等函数进行边缘检测,下面以cvLaplace函数进行举例,其边缘检测的代码为:
IplImage *result_img = cvCreateImage(cvSize(img->width, img->height), IPL_DEPTH_8U, 1);
cvLaplace (img, result_img);
cvNamedWindow(“Result”, 0);
cvShowImage(“Result”, result_img);
第一句是创建一幅与原始图像img同样大小的通道数为1的图像result_img;第二句是使用Laplace算子对图像进行边缘检测,并将结果存放在result_img中,后面两句是在窗口中显示result_img。程序的处理结果如图2 所示。
五、结束语
OpenCV中的函数几乎能够覆盖到所有的数字图像处理的基本功能,而且其代码又是免费的和开放的。实践证明,通过将OpenCV引入数字图像处理的实验教学中,既能简化图像处理的编程,又能切实地提高学生的实践能力,使学生深入理解图像处理的基础理论和典型算法,获得了良好的实验教学效果。
[ 参 考 文 献 ]
[1] 赵敏.Matlab用于数字图像处理的教学实践研究[J].电脑知识与技术,2012,8(31):75397540.
[2] 李树涛,胡秋伟.OpenCV在“数字图像处理”课程教学中的应用[J].电气电子教学学报,2010,32(6):2628.
[3] 刘瑞祯,于仕琪.OpenCV教程[M].北京:北京航空航天大学出版社,2008.
[4] 方玫.OpenCV技术在数字图像处理中的应用[J].北京教育学院学报(自然科学版),2011,6(1):711.
计算机视觉概述范文4
关键词:图像处理;电力设备
中图分类号:V351.31文献标识码:A文章编号:
1、电力设备检测
电力设备是输配电网中的枢纽和通道,设备在使用的过程中会有老化、失修、故障隐患等情况出现。但是这些情况并不能都靠人眼、工作人员的经验一一排除,必须要专门的电力设备检测才能检查出这些电力安全隐患并组织人力及时排除。 在电力运行中,电力安全始终是电力人绷紧的一根弦。电力设备检测实际上是起到了预防、发现隐患的作用。因此电力设备检测(即电力设备预防性试验)至关重要。
2、电力设备的概述
电力设备预防性试验是指对已投入运行的设备按规定的试验条件(如规定的试验设备、环境条件、试验方法和试验电压等)、试验项目、试验周期所进行的定期检查或试验,以发现运行中电力设备的隐患、预防发生事故或电力设备损坏。它是判断电力设备能否继续投入运行并保证安全运行的重要措施。
3、图像处理的发展
随着计算机技术的迅猛发展和相关理论的不断完善,数字图像处理 技术在许多应用领域受到广泛重视并取得了重大的开拓性成就。 属于这些领域的有航空 航天、生物医学工程、工业检测、机器人视觉、公安司法、军事制导、文化艺术等。该 技术终将成为一门引人注目、前景远大的新型学科。
4、图像处理的意义
图像进行处理的主要目的有三个方面:
4.1图像的视感质量,如进行图像的亮度、彩色变换,增强、抑制某些成分,对图像进行几何变换等,以改善图像的质量。
4.2图像中所包含的某些特征或特殊信息,这些被提取的特征或信息往往为计算机分析图像提供便利。提取特征或信息的过程是图像处理的预处理。提取的特征可以包括很多方面,如频域特征、灰度或颜色特征、边界特征、区域特征、纹理特征、形状特征、拓扑特征和关系结构等。
4.3不管是何种目的的图像处理,都需要由计算机和图像专用设备组成的图像处理系统对图像数据进行输入、加工和输出。图像是人类获取和交换信息的主要来源,是视觉的基础,而视觉又是人类重要的感知手段,所以图像成为心理学,生理学,计算机科学等诸多方面学者研究示图感知的有效工具。图像处理是一门实用的科学,在军事,航空,航天,遥感,电力,通信,医学,教育等领域得到广泛应用。
5、电力系统概述
传统的视频监控系统需要人工监看录像,监控性能受到监控者本身的生理因素的制约。有研究表明: 人盯着屏幕看3 个小时后,注意力将降低70%。随着我国高压输电线路的规模迅速增长,线路运行部门承担了越来越多的线路巡视维护工作量,急需用先进的技术来帮助线路维护人员提高工作效率。图像处理技术借助计算机强大的数据处理功能,对视频画面中的海量数据进行高速分析,过滤掉用户不关心的信息,仅仅为监控者提供有用的关键信息。能够大大减轻视频监控中人工劳动强度,同时可以减少误报漏报,还可以提高报警处理的及时性。图像监控系统应用的范围非常广,最常见的是对民宅、停车场、公共场所、银行等的监控,以防止偷盗、破坏行为的发生,保障社会安全。近年来图像处理技术在电力设备系统监控上也有大量应用: 如赵书涛等人利用图像的形状不变矩特征作为特征矢量,采用SVM 分类器识别各类电力设备,取得了较满意的识别效果,实现了变电站的无人值守; 刘金春利用小波不变矩来提取图像的边缘特征,通过与无故障图像的小波不变矩比较,分析出图像的变化情况,实现了对变电站的自动监控。因此图像处理技术能在电力系统的安全监测中发挥重大作用。
6、图像检测
边缘检测是一种重要的区域处理方法。边缘是所要提取目标和背景的分界线, 提取出边缘才能将目标和背景区分开来。边缘检测是利用物体和背景在某种图像特性上的差异来实现的, 这些差异包括灰度、颜色或者纹理特征。实际上, 就是检测图像特性发生变化的位置。边缘检测包括两个基本内容: 一是抽取出反映灰度变化的边缘点; 二是剔除某些边界点或填补边界间断点, 并将这些边缘连接成完整的线。如果一个像素落在边界上, 那么它的邻域将成为一个灰度级变化地带。对这种变化最有用的两个特征是灰度的变化率和方向。边缘检测算子可以检查每个像素的邻域, 并对灰度变化率进行量化, 也包括对方向的确定, 其中大多数是基于方向导数掩模求卷积的方法。
6.1图像几何校正
图像的几何畸变表现为像元相对于地面目标实际位置发生挤压、扭曲、变形等。其基本环节有两个,即像素坐标变换和重采样。
6.2图像重采样
图像重采样的目的主要是保证图像像素的连续性,因为对图像空间分辨率进行提升时,需要利用插值的手段在空出的像素上补上对应的值,使整个图像平滑,有利于进一步处理。其最基本方法有三种:最近邻插值、双线性插值和双三次插值。
6.3 图像增强
图像增强就是采用一定的方法对图像的某些特征进行调整,以突出图像中的某些感兴趣信息,同时抑制或去除不需要的信息来提高图像质量。它的主要目的是改变图像的灰度等级,提高对比度;消除边缘噪声,平滑图像;突出边缘及图像主要信息,锐化图像、压缩数据量等。图像增强主要方法根据处理空间的不同,分为空间域方法和频率域方法两大类。空间域增强主要是通过改变像元及相邻像元的灰度值达到增强的目的。而频率域增强则是通过对图像进行傅里叶变换后改变频域图像的频谱来达到图像增强的目的。此外,根据图像处理的范围又可以将增强处理技术分为全局处理和局部处理两种。
7、结束语
我国电力行业的不断发展,和停电机会的不断减少。现代化的电力设备停电检修试验的机会越来越少。电力设备的检修试验也从原来的传统试验逐步的转型为现在的不停电检修试验。由于现在的状态监测与传统试验相比不具有破坏性或破坏性较小和不停电等优点。现在的电力设备状态监测试验也将逐步取代于传统的试验,为未来的电力发展和可靠的安全供电提供有力的技术保障。电力设备的状态监测也将必然成为未来电力电网试验发展的主导方向。社会经济的飞速发展,科学技术的突飞猛进,电力设备检测的范围,设备与技术也在与时俱进。一套设备的“健康指数”包括其电气特性和机械特性两部分内容组成;而无法得到电力设备在通电运行中的电气特性的“健康数值”这一难题,一直困扰电力用户多年。全新的状态监测技术的出现解决了这一难题。不仅扩展了电力设备检测的概念,而且填补了电力设备检测领域的盲点。常规停电检测技术和状态监测技术相辅相承,为电力设备的可靠运行提供全方位的数据支持。
参考文献:
[1] 龚超,罗毅,涂光瑜.计算机视觉技术及其在电力系统自动化中的应用[J]. 电力系统自动化. 2003。
计算机视觉概述范文5
关键词: 视觉跟踪;复杂场景;融合;支持向量机;粒子滤波
中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2016)01-0196-02
Research on Visual Tracking in Complex Scenes
DING Jian-wei1,LIU Wei2,3
(1.People's Public Security University of China, Beijing, 102623, China; 2.School of Electro-mechanical Engineering, Nanyang Normal University, Nanyang 473061, China; 3.Oil Equipment Intelligent Control Engineering Laboratory of Henan Province, Nanyang Normal University, Nanyang 473061, China)
Abstract:It is still difficult for existing visual tracking algorithms to track effectively moving objects in complex scenes. However, it can promote tracking performances largely by integrating multiple features in complex scenes. This paper proposes a multiple features fusion based visual tracking algorithm in particle filter framework. And the online trained support vector machine classifier is used to construct the discriminative appearance model. The method is tested in videos with complex scenes, and experimental results shows that the proposed tracking algorithm is robust and accurate.
Key words:visual tracking; complex scenes; fusion; support vector machine; particle filter
1 概述
视觉跟踪研究如何让计算机自动确定感兴趣的目标在视频中的位置、轨迹以及运动参数等信息,是计算机视觉的关键研究问题。近年来,虽然视觉跟踪研究有了长足的进步,但当场景中存在严重的图像噪声、快速的光照、姿态变化以及复杂的目标运动时,现有的目标跟踪算法依然很难解决这些难题,原因在于跟踪的核心问题目标表观建模还没有得到根本解决。
对目标表观进行建模,一般需要首先提取跟踪物体的视觉特征,常用的特征有原始像素特征[1]和直方图特征[2]等,这些特征都有其优缺点,并不适用于任意场景和物体。因此,本文研究基于多种视觉特征描述目标表观,避免使用单一特征存在的缺点,提升跟踪算法在复杂场景中的性能,
2 算法框架
在粒子滤波框架下,跟踪可以看做是贝叶斯状态空间推理问题:
[p(Xt|Ot)∝p(ot|Xt)p(Xt|Xt-1)p(Xt|Ot)dXt-1] (1)
其中[Ot={o1,o2…ot}]是目标的观测集合,[ot]是目标在t时刻的观测向量。[Xt]是目标在t时刻的状态参数,[Xt=(xt,yt,ht,wt)],其中[xt],[yt],[ht]和[wt]分别表示目标在横轴和纵轴的位移,以及跟踪方框的长度和宽度。跟踪过程由表观似然度函数[p(ot|Xt)]和目标动态函数[p(Xt|Xt-1)]决定,下面分别讨论。
2.1表观似然度函数
表观似然度函数[p(ot|Xt)]表示目标状态为[Xt]时观测为[ot]的概率,基于在线学习的目标表观模型计算得到。目标表观模型可分为生成式和判别式两种,由于判别式模型融合了背景信息,因而在跟踪时能够比生成式模型更好的区分相似物体的干扰,本文选择判别式表观模型描述目标,具体包括特征提取和在线分类器学习。
2.1.1 多特征融合
为了克服单一特征造成的局限性,提高跟踪算法在复杂场景下的准确性,本文选择融合HSI颜色特征、局部二值模式(Local Binary Patterns,LBP)特征、方向梯度直方图(Histogram of Oriented Gradient, HOG)特征描述目标。
HSI颜色特征:基于HSI颜色空间提取的特征,包括色度(Hue)、饱和度(Saturation)和灰度(Intensity)。将输入图像从RGB空间转化到HSI空间,调整图像尺寸为标准大小,例如24×24像素,并将该颜色特征向量进行归一化。
LBP特征:是一种有效的纹理描述算子,用来度量和提取图像局部的纹理信息,具有旋转不变性和灰度不变性等显著的优点。
HOG特征:HOG特征[3]通过计算和统计图像局部区域的梯度方向直方图来描述物体,对图像的几何和光学形变都能保持较好的不变性,因而在计算机视觉领域获得了广泛应用,特别是在图像检测领域取得了巨大的成功。由于原始的HOG特征提取比较费时,因此本文采用文献[7]描述的快速HOG特征提取方法,并对提取的HOG特征进行归一化。
将HSI颜色特征、LBP特征和HOG特征组合,即可得到目标图像的特征描述子[ot]。
2.1.2 在线分类器学习
在判别式跟踪框架中,表观似然度函数[p(ot|Xt)]由在线学习的二分类器计算得到,本文选择支持向量机(Support Vector Machine, SVM)分类器。SVM分类器的输入是特征描述子[ot],设输出的分类结果为[y∈{+1,-1}],其中数值-1代表背景,而数值+1代表跟踪目标,则目标表观似然度由下式计算得到:
[p(ot|Xt)∝f(ot)=wTot+b] (2)
式中[f(ot)]是输入为特征向量[ot]输出分类结果为[y=+1]的概率,[w]和[b]是SVM分类器的模型参数。
在得到每一帧跟踪结果后,在跟踪结果周围提取新的样本,然后用来训练SVM分类器,得到新的模型参数,在实验中使用了L2正则化的SVM训练方式[4]。
2.2目标动态函数
目标动态函数[p(Xt|Xt-1)]表示连续帧之间目标状态的转移概率,考虑到算法的实时性要求,一般认为目标在当前帧的状态与前一帧的状态相差不大,因此可以假设[Xt]服从以[Xt-1]为均值的高斯分布,即
[p(Xt|Xt-1)=N(Xt;Xt-1,Φ)] (3)
式中[N]表示高斯分布,[Φ]是对角协方差矩阵,[Φ=diag(σ2x,σ2y,σ2h,σ2w)],[σ2x,σ2y,σ2h,σ2w]是常数参数。
3 实验
为了验证算法在复杂场景下跟踪目标的有效性,本文选择了三段公开的跟踪测试视频[5],视频中存在各种跟踪难题,包括光照突然变化、大的姿态变化、杂乱背景和低质量图像等。
图1、图2和图3分别是在视频“David”、“Car4”、“Woman”上测试的跟踪结果截图。图1跟踪的目标是人脸,视频中存在光照突变,姿态变化和杂乱背景等。图2跟踪的目标是汽车,视频中存在光照突变,尺度变化等。图3跟踪的目标是行人,视频中存在物体遮挡,和杂乱背景等。由图可知,本文算法可以准确的跟踪目标。
图1 在视频“David”上的跟踪结果截图
图2 在视频“Car4”上的跟踪结果截图
图3 在视频“Woman”上的跟踪结果截图
4 结论
本文研究了复杂场景中目标跟踪的难题,为了改善基于单一特征很难有效跟踪目标的缺点,本文通过融合多种特征对目标进行跟踪。为了检验算法的有效性,选取了复杂场景的视频进行测试,实验结果表明使用多种特征能准确鲁棒的跟踪目标。
参考文献:
[1] Ross D A, Lim J, Lin R S, et al. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision, 2008,77(1):125C141.
[2] Comaniciu D, Ramesh V, Meer P. Kernel-based object tracking[J]. IEEE Trans. on Pattern Analysis and Machine Intelligence, 2003,25(5):564C577.
[3] Navneet Dalal, Bill Triggs. Histograms of Oriented Gradients for Human Detection. IEEE Conference on Computer Vision and Pattern Recognition[C]. San Diego: IEEE Press, 2005:886-893.
计算机视觉概述范文6
1.1.1医学影像背景
医学影像学由于其含有极其丰富的人体信息、各器官信息等,能以很直观的形式向人们展示人体内部组织结构、形态或脏器等,使得其在临床诊断、病理研究分析治疗中有着十分重要的作用,是医学研究领域中的一个重要研究方向,几年来,随着医学成像技术的不断发展,医学图像已经从早期的X光片发展为二维数字断层图像序列。医学影像学包含人体信息的获取以及图像的形成、存储、处理、分析、传输、识别与应用等,主要内容可以归纳为三大部分:医学影像物理学、医学影像处理技术和医学影像临床应用技术⑴。首先医学影像物理学指的是图像形成过程的物理原理,主要目的是根据临床需求或医学研究的需求,对成像的原理、成像系统进行的分析和研究,将人体内感兴趣的信息提取出来,以图像的形式显示,并对各种医学图像的质量因素进行分析。提取的信息可以是形态的、功能的或成分等一切与当前临床应用有关的感兴趣信息,信息载体可以是电磁波或机械波,所显示的形式可以是一维的、二维的甚至是三维、四维等不同层次的图像。
医学影像处理技术是指对已获得的图像作进一步的处理,如对其进行分析、识别、分割、分类等,从而得到我们临床研究所需的感兴趣信息,确定哪些部分应增强或某些特征需要特殊提取进行处理,其目的是使得原来不够清晰的图像变的清晰,易于分析,或者是为了提取图像中某些特征信息,对于特定的器官的分析,涉及到医学诊断的内容[2],重点是要对器官的切片图提取关键信息进行分析,如对于胃部切片图,我们在诊断胃癌的时候是要判断是否有淋巴结发生转移,这就需要首先对胃部切片图进行有效的分割,尤其是我们需要的胃壁周围的感兴趣区域,在正确分割的基础上,对于切片图中的目标进行分析,通过特定的方法识别切片图中的目标,从而可以实现辅助诊断的目的[3]。
1.2医学影像中多目标跟踪研究的现状
在计算机视觉领域的传统目标跟踪中,研究人员多采用基于分割的跟踪,即运动目标的跟踪被分为两大步:第一步,目标分割;第二步,目标跟踪。在医学图像多标跟踪问题中,要对图像上的目标进行精确的跟踪,首先是需要正确的图像分割结果,然后运用相应的跟踪方法得到我们所需要的跟踪结果。
1.2.1医学图像分割概述
图像分割就是把图像分成若干个特定的、具有独特性质的区域并提出感兴趣目标的技术和过程。它是由图像处理到图像分析的关键步骤。现有的图像分割法主要分以下几类:基于阈值的分割方法、基于区域的分割方法、基于边缘的分割方法以及基于特定理论的分割方法等。近年来,研究人员不断改进原有的图像分割方法并把其它学科的一些新理论和新方法用于图像分割,提出了不少新的分
第二章医学影像中的多目标跟踪
目前,大多数对于医学影像中多目标跟踪的研究主要是基于医学图像分割的结果之上的,所以医学影像中的目标跟踪主要分为图像分割、图像跟踪两部分。图像分割主要是为了提取感兴趣区域,通过相关的图像分割方法得到我们所需要的待跟踪的图像,得到分割图像后采用跟踪的相关方法对研究的目标进行跟踪、识别,得到医学影像中目标的一些关键信息,如其面积变化、位置变化、轨迹信息等。
2.1医学影像中的图像分割
图像分割就是运用特定的方法把图像分成若干个特定的区域并提取感兴趣区域的技术和过程。它是由图像处理到图像分析的关键步骤。现有的图像分割方法主要分以下几类:基于阈值的分割方法、基于区域的分割方法、基于边缘的分割方法以及基于特定理论的分割方法等。近年来,研究人员不断改进原有的图像分割方法并把其它学科的一些新理论和新方法用于图像分割,提出了不少新的分割方法。
2.2医学影像中的多目标跟踪
在计算机视觉研究领域中,运动目标跟踪一直是科研人员研究的重点。所谓序列图像中的运动目标跟踪,简单来说即是确定目标在巾贞与顿之间的联系。同样,作为多医学图像显微图像中的医学图像跟踪,即是要在帧与顿之间,多医学图像混合中,找到相同医学图像的一一对应关系。从第一巾贞图像直至最后一帧图像,完成整个图像序列中医学图像的匹配,实现整个医学图像跟踪。从本质上来说,医学图像跟踪方法与传统的目标跟踪方法没有太大的区别。是在医学图像序列这个特定环境下,算法需要做一些相应的变化和改进,去适应医学图像运动的一些特性,这样才能达到理想的跟踪效果。由于目标跟踪技术在计算机视觉领域发展良久,优秀的目标跟踪技术门类众多,目标跟踪算法的分类没有明确的标准。根据视频序列中被跟踪目标的数目,跟踪方法可以分为单目标跟踪和多目标跟踪。根据目标跟踪前,是否使用分割,跟踪方法可以分为基于分割的跟踪和基于视窗的跟踪:基于分割的跟踪是在分割后的结果中提取目标信息再进行跟踪;而基于视窗的跟踪不需要对图像进行分害只要指定目标的区域,不过因为医学图像中目标运动多样性,医学图像大都采用基于分割的跟踪方法,跟踪方法有几类基本的框架:先检测后跟踪,先跟踪后检测,边跟踪变检测,检测利用跟踪来提供处理的对象区域,跟踪利用检测来提供需要的目标状态的观测数据,医学图像当中主要是先跟踪后检测。此外,根据跟踪目标提取的不同特征,目标跟踪方法可以分为基于颜色、基于形状、基于区域和基于点特征等跟踪
第一章绪论……………………1
1.1医学影像中多目标跟踪的背景和意义…………………1
1.2医学影像中多目标跟踪研究的现状……………………3
1.3本文研究的主要内容及论文安排…………………… 5
第二章医学影像中的多目标跟踪……………………7
2.1医学影像中的图像分割……………………7
2.2医学影像中的多目标跟踪……………………11
2.3本文中采用的方法……………………14
2.4本章小结……………………16