卷积神经网络的一般步骤范例6篇

前言:中文期刊网精心挑选了卷积神经网络的一般步骤范文供你参考和学习,希望我们的参考范文能激发你的文章创作灵感,欢迎阅读。

卷积神经网络的一般步骤

卷积神经网络的一般步骤范文1

【关键词】人工智能 图像识别 深度学习

1 概述

图像识别技术是人工智能研究的一个重要分支,其是以图像为基础,利用计算机对图像进行处理、分析和理解,以识别不同模式的对象的技术。目前图像识别技术的应用十分广泛,在安全领域,有人脸识别,指纹识别等;在军事领域,有地形勘察,飞行物识别等;在交通领域,有交通标志识别、车牌号识别等。图像识别技术的研究是更高级的图像理解、机器人、无人驾驶等技术的重要基础。

传统图像识别技术主要由图像处理、特征提取、分类器设计等步骤构成。通过专家设计、提取出图像特征,对图像M行识别、分类。近年来深度学习的发展,大大提高了图像识别的准确率。深度学习从大量数据中学习知识(特征),自动完成特征提取与分类任务。但是目前的深度学习技术过于依赖大数据,只有在拥有大量标记训练样本的情况下才能够取得较好的识别效果。本文认为研究如何在标记数据有限的情况下继续利用深度学习完成物体识别任务具有重要意义。这也是未来人工智能研究的重要方向之一。

2 传统图像识别技术

传统的图像识别技术包括:图像获取、预处理、特征提取、分类。在图像输入后,需要先对图像进行预处理。一幅标准灰度图像,如果每个像素的像素值用一个字节表示,灰度值级数就等于256级,每个像素可以是0~255之间的任何一个整数值。一幅没有经过压缩处理的640×480分辨率的灰度图像就需要占据300KB的存储空间。通常我们需要将图片的亮度及对比度调整合适,才能使图片更加清晰、便于观察。

许多采集到的图片带有或多或少的噪声,需要对图片的噪声进行消除。对图片噪声的消除可以使用不同的去噪方法,如中值滤波、算数平均滤波、平滑线性滤波和高斯滤波等。不同滤波器分别适用于不同情况的噪声。如椒盐噪声便适合使用中值滤波器,高斯噪声便适合使用平滑线性滤波和高斯滤波。有时候,我们需要对图像细化处理(如指纹细化,字符细化等),以便获取主要信息,减少无关信息。细化操作,可以得到由单像素点组成的图像轮廓,便于后续特征提取操作。

基本的图像特征提取包括边缘、角点等提取。一般使用不同的特征提取算子结合相应的阈值得到这些关键点。另一类在频域中进行特征提取的方法主要是通过傅里叶变换,将图像基于频率分为不同的部分,从而可以在频谱中反映出原始图像的灰度级变化,便可得到图像的轮廓、边缘。

在完成图像的预处理和特征提取之后,我们便能够对图像进行识别、分类。常用的分类器有K-近邻(KNN),支持向量机(SVM),人工神经网络(ANN)等等。K-近邻算法原理是,当一个样本的k个最相邻的样本中大部分属于某一类别时,该样本也应当属于同一类别。支持向量机是通过寻找支持向量,在特征空间确定最优分类超平面,将两类样本分开。人工神经网络模仿生物大脑中的神经网络结构,通过误差反向传播不断优化参数,从而得到较好的分类效果。

3 基于深度学习的图像识别技术

一般认为深度学习技术是由Hinton及其学生于2006年提出的,其属于人工神经网络分支。深度神经网络模仿人脑的神经机制来分析样本,并尽可能地对样本的特征进行更深度的学习。以图片为例,利用深度学习技术对样本的特征进行学习时,由低层特征到高层特征越来越抽象,越来越能表达语义概念。当样本输入后,首先对图像进行卷积与下采样操作,卷积和下采样操作是为了进行特征提取和选择。以原始像素作为输入,深度学习技术可以自动学习得到较好的特征提取器(卷积参数)。深度学习的训练过程,首先将当前层的输出作为下一层的输入,进行逐层分析,使得每一层的输入与输出差别尽可能小。其后,再联合优化,即同时优化所有层,目标是分类误差最小化。

传统的深度神经网络往往网络中的节点数太过庞大,难以训练。人们构造出卷积神经网络,以权值共享的方式减少了节点数量,从而能够加深学习的深度,使系统能学习到更抽象、更深层的特征,从而提高识别正确率。目前较成功的深度学习网络结构有AlexNet、GoogLeNet、ResNet等。

与传统识别技术相比,深度学习技术具有以下优势:

(1)无需人工设计特征,系统可以自行学习归纳出特征。

(2)识别准确度高,深度学习在图像识别方面的错误率已经低于人类平均水平,在可预见的将来,计算机将大量代替人力进行与图像识别技术有关的活动。

(3)使用简单,易于工业化,深度学习由于不需要领域的专家知识,能够快速实现并商业化,国内较知名的深度学习创业公司有专注人脸识别的Face++、研究无人车的驭势科技等。

4 存在问题与未来展望

虽然深度学习具备诸多优点,但目前来看深度学习仍有许多不足之处。首先,由于深度学习模型为非凸函数,对其的理论研究十分困难,缺乏理论保证。在对数据进行调整时,仍是简单的“试错”,缺少理论支撑。

同时,由于深度学习过于依赖数据量和计算资源。对一个新概念的学习,往往需要数百个甚至更多有标记的样本。当遇到有标记的样本难以获取或者代价太大时,深度学习就无法取得好的学习效果。并且深度学习需要十分昂贵的高性能GPU,这使得深度学习难以平民化。目前深度学习训练速度较慢,往往需要几天甚至一个月。其模型扩展性差,缺少“举一反三”的能力,样本稍加变化,系统性能便会迅速下降。目前的深度学习属于静态过程,与环境缺乏交互。

对其的解决方案目前主要有两点:

(1)针对于模型扩展性差的问题,通过引入迁移学习,研究不同任务或数据之间的知识迁移,提高模型的扩展能力、学习速度,同时降低学习成本,便于冷启动。

(2)与强化学习结合,研究在动态环境下进行深度学习,提高深度学习与环境交互的能力。

参考文献

[1]蒋树强,闵巍庆,王树徽.面向智能交互的图像识别技术综述与展望[J].计算机研究与发展,2016:113-122.

[2]张翠平,苏光大.人脸识别技术综述[J].中国图象图形学报,2000:885-894.

[3]梅园,赵波,朱之丹.基于直线曲线混合Gabor滤波器的指纹增强算法[J].计算机科学,2016.

[4]孙志军,薛磊,许阳明,王正.深度学习研究综述[J].计算机应用研究,2012:2806-2810.

[5]庄福振,罗平,何清,史忠植.迁移学习研究进展[J].软件学报,2015:26-39.

[6]高阳,陈世福,陆鑫.强化学习研究综述[J].自动化学报,2004:86-100.

卷积神经网络的一般步骤范文2

关键词: 机器人视觉; 定位跟踪系统; 系统设计; 控制模块

中图分类号: TN802.4?34; TP242 文献标识码: A 文章编号: 1004?373X(2016)14?0080?04

Design and implementation of robot vision locating and tracking system

CAO Qingmei1, WANG Xuelian2, MA Zhanfei3

(1. Vocational and Technical College of Inner Mongolia Agricultural University, Baotou 014100, China;

2. College of Public Administration, Inner Mongolia Normal University, Hohhot 010000, China;

3. School of Information Science and Technology, Normal College of Inner Mongolia University of Science and Technology, Baotou 014030, China)

Abstract: In view of the problems existing the design of the traditional robot locating and tracking system, such as incomplete tracking region acquired by image preprocessing module and incomplete noise elimination, a tracking system location according to robot vision was designed and implemented. In the system, the tracking region is acquired with the image preprocessing module, various modules of the whole system are coordinated and controlled with the control module to acquire the image of the target in the region, and then the acquired information is sent to the image processing module to complete the information exchange among the system modules. In the process of software design, the system locating program code is given while image processing to realize the robot visual positioning and tracking. The experimental results show that the designed system has the high feasibility and practicability.

Keywords: robot vision; locating and tracking system; system design; control module

0 引 言

近年来,机器人视觉被广泛应用在工业、图像处理等众多领域,而在定位跟踪领域的使用是最好的,也是最突出的[1?2]。随着科学技术的发展,设计并实现了很多定位跟踪系统,如基于人脸特征设计的定位跟踪系统,通过体型特征设计的定位跟踪系统,通过DNA检测设计的定位跟踪系统以及通过机器人视觉设计的定位跟踪系统。其中,最常用、效果最好的就是通过机器人视觉设计的定位跟踪系统[3?5],相比其他的定位跟踪系统,该系统应用前景广泛,跟踪效果好,已经成为很多学者研究的重点课题,受到越来越广泛的关注,是相关领域的前沿方向[6?9]。

本文设计并实现了一种通过机器人视觉进行定位的跟踪系统,通过机器人视觉进行区域目标信息的采集及分析,为视觉监控等领域提供有效依据。

1 机器人视觉定位跟踪系统总体设计

设计的机器人视觉定位跟踪系统主要由控制模块、图像预处理模块、信号采集模块、通信模块和视觉定位模块构成。首先通过图像预处理模块将需要的区域图像中的噪声进行干扰去除,经过控制模块对整个系统各个模块进行协调和控制,将区域图像信息进行采集及存储,并通过通信模块进行信息的传输,最后通过机器人视觉进行定位,最终根据定位完成跟踪。其中,图像预处理的好坏,直接影响后面机器人视觉定位的准确度,定位出现误差,跟踪效率就会降低,因此图像预处理模块是整个机器人视觉定位跟踪系统的基础。详细的机器人视觉定位跟踪系统结构如图1所示。

2 机器人视觉定位跟踪系统硬件设计

2.1 控制模块

控制模块是本文设计系统的核心,主要用来协调和控制整个机器人视觉定位跟踪系统各个模块,其主要由C8051F206单片机、UART和SPI串行接口、片内FLASH存储器等构成。选择C8051F206单片机为系统的核心芯片,它是集成的MCU芯片,具有12位多通道ADC,依据系统整体设计的需求,选用UART和SPI的串行接口,该串行接口共有32个通用I/O引脚,部分引脚用于数字外设接口。所有端口引脚均能够被配置ADC模拟输入,片内还集成有VDD监视器、硬件看门狗定时器以及时钟振荡器。片内FLASH存储器还可用于部分数据存储。通过设计的这个控制模板可以及时有效地对其余各个模块进行调控并获取区域图像,为定位跟踪提供了先决条件。

2.2 图像预处理模块

获取区域图像之后,需要进一步对图像进行预处理,图像预处理模块主要负责获取相对比较完整的、最大程度的不含阴影与噪声的区域图像。其中,图像信息主要通过LT1959CS8、视频解码芯片、SRAM进行预处理。SRAM需采用精度和稳定性较高的双电源供电,以消除机器人视觉定位跟踪系统各模块存在的电磁噪声,因此,本文选用两片Linear公司生产的LT1959CS8进行供电。视频解码芯片选用Trident Microsystem公司生产的SAA7113H芯片。图像存储选择两片IDT71V424异步SRAM芯片实现,其芯片容量是512 KB。这样通过图像预处理模板,可以去除噪声对定位跟踪产生的干扰,为信息采集模块提供最“纯净”的信息。

2.3 信息采集模块

信息采集模块主要用于对经过处理后的目标图像信息进行采集,同时将采集的信息发送至通信模块进行处理。信息采集模块主要包括MMA7260QT芯片、信息调理、单极低通滤波器以及温度补偿单元等。设计该模块时,将MMA7260QT芯片作为核心,对处理后的图像信息进行采集。该模块不但需达到信息采集的功能要求,同时体积需尽可能的小,以节省资源。MMA7260QT是美国Freescale公司生产的一款低成本的单芯片,该芯片融合了信息调理、单极低通滤波器以及温度补偿技术,同时可提供四种采集范围,具有噪音低、灵敏度高的优点。因此,该模块使用MMA7260QT芯片可达到更好、更全面的图像信息。

2.4 通信模块

通信模块主要用于整个系统模块之间的信息交换,是整个系统设计成败的关键枢纽,因此,本文选择CAN总线进行通信。和其他总线相比,CAN总线具有节点间不分主次,通信速率高的特点。除此之外,该模块还采用Microchip公司的MCP2515控制器和TJA1040驱动器辅助实现,不仅能够达到系统所需的要求,还能节约成本。

2.5 机器人视觉定位模块

机器人视觉定位模块是整个系统的关键模块,采集到的信息通过预处理去除噪声干扰,再经过通信模块传输到视觉定位模块,在此模块经过图像智能化定位处理,使得要跟踪的信息更加清楚、明了,增加了跟踪的精度。

3 机器人视觉定位跟踪软件算法的设计

3.1 算法的设计思路

在上述机器人视觉定位跟踪系统各个模块的设计的基础上,设计软件算法,具体步骤如下:

(1) 获取定位图像特征,为动态估计提供依据。假如,区域图像信息集为[φkζ],[k=1,2,…,M],则第[k]个图像的特征可通过下式求出:

式中:[Fkx;pk]用于描述图像信息的动态变化;[vkx;pk]用于描述图像不确定项;[pk]用于描述各参数向量。

(2) 动态估计值的计算,为获取定位误差值提供有利条件。通过利用RBF神经网络对一般动态信息图像特征[φkx;pk=Fkx;pk+vkx;pk]进行局部分类,同时将获取的信息用常值神经网络[WkTSx]权值的形式进行保存,并获取[M]阶的动态估计值:

式中:[k=1,2,…,M]用于描述第[k]个参数;[χk=χ1k,χ2k,…,χnkT]用于描述图像信息个数;[B=diagb1,b2,…,bn]用于描述对角矩阵。

(3) 定位误差值的计算及误差范数的获取。在测试过程中,通过式(2)获取的动态估计值,即可获取定位误差值,计算公式如下:

式中,[χki=χki-xi]用于描述状态估计误差。

通过式(4)求出误差[χkit]的[L1]范数:

式中,[TC]用于描述图像信息获取周期。

(4) 完成机器人视觉定位,其基本思想为:若信息动态模式为[s]([s∈1,2,…,k]),则动态模式[s]中常值RBF的神经网络[WkTiSix]值,可通过定位误差值获取。所以,相应的误差[χsit1]在全部误差[χsit1]中最小。依据最小误差原则,实现快速定位。

依据上述定位过程给出系统用于定位的主流程图,如图2所示。

(5) 在定位的基础上完成跟踪,则具体的跟踪结果如下:

式中:[Ii,j]代表目标图像边缘上的像素点;[S]代表图像边缘梯度向量;[t]代表目标滤波值。

3.2 源代码设计

本文设计的机器人视觉定位跟踪系统软件,是在Windows XP环境下,通过Visual C++ 6.0实现的,其关键跟踪部分的源代码如下:

4 仿真实验分析

为了验证本文设计的机器人视觉定位跟踪系统的有效性,需要进行相关的实验分析。实验将基于确定学习的跟踪系统作为对比进行分析,本文实验在Windows XP环境下,LabVIEW构建系统平台上完成。分别采用本文系统和基于确定学习的跟踪系统对测试区域目标进行跟踪,测试区域目标图像如图3所示,两种系统测试得到的结果分别如图4、图5所示。

由图4、图5可知,改进算法进行多人视觉定位中的防丢失效果要优于传统算法,这主要是因为本文设计的跟踪系统,通过控制模块对整个系统的各个模块进行协调和控制,再经过图像预处理模块对目标区域图像进行处理,并对区域目标图像信息进行采集,将采集的信息发送至图像预处理模块进行处理,完成整个系统模块之间的信息交换,最终达到跟踪的目的。采用本文系统对区域目标图像进行跟踪,从侧面视角的角度,对本文系统和基于确定学习的跟踪系统的跟踪准确率进行比较,得到的结果如表1所示。分析表1可以看出,本文系统的准确率一直高于基于确定学习的跟踪系统,且准确率一直在90%以上,说明本文系统具有很高的跟踪性能。

5 结 论

本文设计并实现了一种机器人视觉定位跟踪系统。控制模块作为系统的核心,主要负责整个系统各个模块的协调和控制,通过图像预处理模块进行处理,再用信息采集模块对目标图像信息进行采集;并通过通信模块在整个系统模块之间进行信息的交换。在软件设计过程中,在图像处理的同时给出定位跟踪程序代码,实现目标的定位跟踪。仿真实验结果表明,本文设计的系统具有很高的可行性和实用性。

参考文献

[1] 梁栋,高玮玮,张艳,等.基于足底压力图像的静态触觉步态识别[J].华中科技大学学报(自然科学版),2013,41(10):25?29.

[2] 王欣,唐俊,王年.基于双层卷积神经网络的步态识别算法[J].安徽大学学报(自然科学版),2015(1):32?36.

[3] 贲烨,张鹏,潘婷婷,等.线性插值框架下矩阵步态识别的性能分析[J].智能系统学报,2013(5):415?425.

[4] 范玉红,梁栋,鲍文霞.改进的谱特征和足底边缘距离的步态识别[J].安徽大学学报(自然科学版),2014(6):37?43.

[5] 李一波,李昆.双视角下多特征信息融合的步态识别[J].智能系统学报,2013,8(1):74?79.

[6] 王蒙,孙运强,姚爱琴.基于PCA和BP神经网络的步态识别系统研究[J].电子质量,2014(3):83?85.

[7] 郑伟南,曲娜,程凤芹,等.基于步态识别技术的热释电红外安防预警系统研究[J].中国新通信,2014(23):96?97.

卷积神经网络的一般步骤范文3

关键词:裂纹实时监测系统;Linux操作系统;ARMS3C2440开发板;QT

中图分类号:TP29 文献标识码:A

文章编号:1004-373X(2009)21-138-03

Development and Research of Intelligent Building Crack′s Real-time

Measuring System Based on ARMS3C2440

ZUO Yongbo

(Electrical College,Hunan University,Changsha,410082,China)

Abstract:With the enhancement of variety of embedded processor′s speed and the development of integrated circuits,a large number of embedded devices are increasingly being applied in each aspects of people's living.In this study,with Linux operating system ARMS3C2440 development board for the development platform,the building crack monitoring system for real-time algorithm implementation and the final software development is completed.Different from the general crack detecting system,adopting edge of the crack detection and crack width measurement separately,making crack and measuring the results of locking position is more accurate.Using QT for interface design,making the software developed by a more intelligent,user-friendly and so on.

Keywords:crack real-time monitoring system;Linux operating system;ARMS3C2440 development board;QT

0 引 言

在建筑业中,评价墙体裂纹,地面裂纹是评价房屋质量的一项重要指标。由于传统的利用手工标尺进行裂纹宽度测量的方法既不准确又不方便,于是将嵌入式应用于自动测量建筑裂纹宽度成为了许多研究者的重要研究内容。

本研究将问题划分为以下两个部分:

(1) 裂纹宽度测量算法;

(2) 将以上所开发软件移植到ARM开发板,并优化算法提高软件运行速度。

1 裂纹宽度测量算法

计算裂缝宽度关键是要利用图像分割技术得到裂缝的真正边缘。虽然已有文献介绍了多种分割方法[1-4],但是未见有针对裂缝测试仪采集到的裂缝图像进行处理的方法。因此,本文针对裂缝图像,提出了结合OTSU图像分割与Sobel边缘检测的混合算法进行裂纹检测与宽度测量。

1.1 图像获取

图像获取过程如图1所示:被检测的裂缝通过光学系统在CMOS图像传感器上成像,然后通过USB接口将裂缝图像输出到ARM上进行处理。

裂缝图像如图2所示。裂缝宽度分布范围较广,自几十至几百像素不等,但远远小于图像的宽度值。裂缝周围有部分噪声,有的图像含有大量污染区域,这成为裂缝位置锁定的难点。

1.2 OTSU图像分割

通过与已有图像分割方法如:直方图法、OTSU法、区域分割法等进行比较发现,OTSU在最后的效果上占有明显的优势。因此采用OTSU方法进行图像的分割。

图像分割的结果如图3所示。观察结果,很容易发现图像的边缘很大区域被错分为与裂缝一样。于是直接计算裂缝宽度时会导致将错分的区域计算成裂缝。因此除了计算裂缝宽度外,对候选裂缝集合进行有效剔除是另一个重要任务。对选裂缝集合进行有效剔除将会在下一小节中进行讨论。

分割完图像后,计算所有可能成为裂缝的区域的宽度。采用从图像给定行的起始位置开始计算裂缝宽度,当发现像素灰度由0变为255,记为一个裂缝的左边缘起始位置;当查找到像素灰度由255变为0,记为一个裂缝的右边缘结束位置。通过这种方法可以获取给定行的所有可能的裂缝宽度。但是在具体试验中发现,计算对单行的裂缝进行宽度测量还是存在比较大的误差。于是采用求取给定行上下5行共10行的平均值的方法。这样可以有效地去除毛刺的干扰。通过这种方法,得到一个裂缝的候选集合,并且计算出候选集合中每一个位置的宽度。

1.3 Sobel边缘检测

以上小节得出了裂缝的候选集合,但是事实上这个候选集合含有大量的非裂缝区域。这一节中的主要内容是设计算法剔除这些干扰裂缝,获取更小的裂缝候选集合。在试验中,由于裂缝具有明显的边缘,而干扰图像区域有比较模糊的边缘或者仅有一个边缘等,通过分析,提出采用Sobel边缘检测的方法进行裂缝位置的锁定。Sobel算子由两个卷积核组成,如图4所示,图像中的每个点都用这两个核做卷积,一个核对通常的垂直边缘相应最大,而另一个对水平边缘相应最大。两个卷积的最大值作为该点的输出位。运算结果是一幅边缘幅度图像。

通过对原始图像采用Sobel边缘检测得到如图5所示结果。

但是,这个结果很明显存在很多微小的干扰,这些干扰必须予以剔除,否则将对锁定裂缝边缘没有任何效果。通过对边缘检测结果图像仔细分析发现,虽然存在微小干扰,但是他们的灰度值普遍偏小,针对这一发现,对缘检测结果图像做与上一节中一样的图像分割,这会将微小的干扰有效地剔除。实际的实验结果也验证了这一点,如图6所示。

同过对分割后的边缘图像进行观察,图像仍然存在一些微小的干扰,但这些干扰相对于未处理的缘检测结果图像已经很少,将在后续的处理中对图像裂缝添加附加约束,从而取出这些干扰的影响。

1.4 基于裂缝特征的附加约束

通过对大量的裂缝图像进行分析,发现图像裂缝有如下特点:

(1) 裂缝灰度值低于墙体的灰度值。

(2) 裂缝的宽度相对于整个图像不超过图像宽度的1/3。

(3) 污染的墙体区域一般呈大的块状出现,且很多仅含有一个边界,另一边界延伸至图像外面。

(4) 墙体的一些微小的干扰呈小块状出现。

(5) 裂缝一般为带状。

使用ARM处理器处理图像,由于其速度慢且有实时性要求,故不能处理整张的图像,换句话说,必须处理局部图像。这就很明显增加了剔除候选裂缝的难度。该系统显然是无法使用特点(4)、特点(5)的。因此仅使用了前三个特点,并提出了约束:剔除宽度高于图像宽度1/3的裂缝候选集,剔除宽度低于1/10的裂缝候选集。

通过添加以上约束,实验效果有了明显的提高。图7是PC机的结果,由于同时使用了5个约束效果比较好。图8是ARM系统运行的截图,由于在ARM上不方便分步计算出每一个步骤,故直接给出了带有测量结果的截图。

2 基于Linux的QT界面设计算法

前文讨论的是主要的算法部分,完整的裂纹测量系统还包括用户接口部分,即图形界面接口。在ARM上采用QT进行界面设计已经比较成熟,它具有以下主要特点:

(1) 入门容易、学习成本低。了解基本概念后就可以边查文档边写程序。

(2) 跨平台效果好。本来是Linux下的工具库,在Windows下默认观感也很好。

3 软件移植与程序优化

由于最终的程序是运行在ARM系统上,而由于ARM处理图像时的速度慢与裂缝测量仪器的实时性要求,必须对程序进行优化,并将算法移植到ARM系统上,使之可以正确运行。

软件的移植比较容易。由于一开始很注重将PC机上仿真成功的算法及时移植到ARM上,故程序的移植变得比较容易。

但是程序的优化是一个问题,虽然现在的ARM速度已经提高了很多,但是在处理图像时还是很吃力,加上算法中需要对原图像两次独立处理,相当于加倍了ARM的负担。通过对大量裂缝图像的分析,针对前文中提出的裂缝特点以及结合ARM本身的运算速度条件,提出剔除处理全部图像的算法。采用了只处理给定行位置上下10行的区域。通过只处理这20行图像,极大地提高了程序的运行速度。以上方法并行,还采用多线程编程方法,通过将图像采样与图像的处理分为两个进程完成,有效地提高了程序的运行速度。

4 实验结果分析

该程序分别在PC机和ARM开发板上运行,效果如图7,图8所示。

通过大量的实验发现该算法能较好地检测出裂缝的分布和宽度。在算法中采用了结合OTSU图像分割与Sobel边缘检测的混合算法进行裂纹检测与宽度测量。这种算法能分别有效利用边缘检测与图像分割两种方法各自的优点。另外在该算法中加入了一些分析获得的约束条件,这能极大地弥补边缘检测与图像分割混合方法的不足,从而有效地提高了裂纹位置锁定与裂缝宽度测量的精度。

5 结 语

针对墙体裂纹测量,设计出了一套适用于裂缝宽度检测的算法。该算法能较好地检测出裂缝的分布和宽度。采用边缘检测与图像分割混合的方法并通过对大量图像进行分析,对算法添加了一系列符合图像裂缝特征的约束条件,极大地提高了算法的准确性与健壮性。分别将程序运行于PC机系统与ARM系统,并针对ARM系统的特点对算法进行了一系列优化,引入了并行处理技术,在提高ARM运行速度的同时,使得ARM系统检测出的结果达到与PC机系统几乎同等的效果。

参考文献

[1]施树明,初秀民,王荣本.沥青路面破损图像测量方法研究 [J].公路交通科技,2004,24(7):12-16.

[2]陆玲,陈国明,戴扬.水下结构物裂缝特征定量分析与测量 [J].计算机测量与控制,2004,12(1):10-12.

[3]甘玲,李涛,赵辉,等.CP神经网络在图像边缘检测中的应用 [J].四川大学学报:自然科学版,2003,35(3):93-96.

[4]王大志,黄劫,徐树英.采用灰度直方图的孔型识别和二值化阈值自动匹配 [J].测控技术,2005,24(2):48-49.

[5]耿飞,钱春香.图像分析技术在混凝土收缩裂缝定量测试与评价中的应用研究 [J].东南大学学报:自然科版,2003,33(6):773-776.

[6]Kima K S,Kangb K S,Kangc Y J,et al.Analysis of an Internal Crack of Pressure Pipeline Using ESPI and Hearography[J].Optics&Laser Technology,2003,35(8):639-643.

[7]陈果,左洪福.图像阈值分割的两种新技术[J].模式识别与人工智能,2002,15(4):468-473.

[8]胡霞.国内外路面快速检测技术的现状与发展[J].中外公路,2003(6):95-99.

[9]张娟.基于数字图像处理的路面裂缝自动识别与评价系统[J].长安大学学报,2004(2):18-22.

[10]付忠良.图像阈值选取方法――OTSU方法的推广[J].计算机应用,2000,20(5):37-39.