计算机视觉综述范例6篇

前言:中文期刊网精心挑选了计算机视觉综述范文供你参考和学习,希望我们的参考范文能激发你的文章创作灵感,欢迎阅读。

计算机视觉综述

计算机视觉综述范文1

关键词:计算机角色动画;可视媒体;融合技术

随着计算机角色动画制作的发展和应用规模的逐渐扩大,计算机角色动画制作还涉及计算机视觉、计算机图形学及机器学习等技术范畴,因此,其发展过程成为多种可视媒体融合的研究领域。

1可视媒体融合技术概述

在计算机角色动画制作中会涉及图像、三维模型、视频以及运动捕捉等多种数据的综合处理,这些数据通过计算机的采集、编辑和压缩的形式被制作成多媒体数据源的形式展现出来,并经过相互之间的作用形成鲜明的动画角色,这就是可视媒体融合技术。

多视点图像中提取的角色通过对侧影信息的变形来实现个性化角色的转变,再通过对运动数据的捕捉来实现角色模型的驱动,以此建立具体的动画角色。这个过程中主要运用了图像、运动捕捉和三维模式。因此,不同的可视媒体所采用的融合技术是不相同的。

2可视媒体融合分类

计算机动画角色在应用过程中呈现出跨度大和设计范围广等特点,各种动画角色的设置都需要建立在可视媒体的基础上,下面对可视媒体的融合进行分类研究。

2.1视频融合

(1)多视点人体角合成三维角色动画:对动画角色进行摄像机的同步,根据拍摄角色的轮廓、深度信息等对每一帧中的角色进行重建,根据当前视觉的多视点纹理来合成角色纹理,这样就能够得到三维角色动画而不是静态的三维模型了。(2)角色动画片段生成:主要采用渲染的方式,实现了片段的编辑,生成角色所需要的动画。(3)视频重组:分解和提取现有视频组合相似的视频片段,使其成为一个新的视频,实现了有限视频资源的利用,视频重组技术在一些特殊动画角色上也有应用,例如昆虫等,通过对原有视频的重新组合和制作进而形成新的视频,保证各种片段之间的连续性,用户通过对代价函数的运用,实现了对角色运动轨迹的控制,进而形成了崭新的动画角色。

2.2图像融合

(1)IBM构建角色模型:以IBM科学技术为基础,以定标的方式实现相机模型的产生,在多视点图像中建立三维角色,并将事先做好的图像贴到事先做好的模型当中,以便实现真实角色的还原。但是还有一点需要注意,就是定标的过程中可能产生一定的误差,因此,角色模型与真实事物也会存在一定的差异。(2)卡通画制作辅助系统:分层化处理输入的关键帧,将其分解,对相邻的2个关键帧笔画可以建立对应关系,利用插值技术形成渡帧,进而促进动画的形成。(3)角色重用技术:采用背景分割的方式实现角色的提取,算出任意2帧之间的差异,最终得到距离矩阵,最后根据每一帧数据投影来形成连通图,经过画师对连通图起点终点计算最小路径,从而构成卡通角色动画,为了使动画更加平滑、完整,可以用插值的方式来生成过渡帧。

2.3三维模型融合

(1)实时插值技术:此技术以样例为基础,其插值方式有2种,一种是径向基插值,一种是组合线性插值,这样就实现了动画人物角色及人脸上的平滑过渡,在一些动画游戏的交互设计方面也有着重要的应用。(2)人体模型变形技术:此技术也是以样例为基础,对人体表面的标记点进行扫面,能够促进动画角色骨架的形成,进而形成动画样本的参数,在参数空间内进插值就能够得到动画角色模型,人体样本子空间的建立的主要方法是PCA法,能够实现个性化人体角色的生成,样本数据由多个人体模型来组成,这种模型的合成和变形技术主要生成的都是动画角色人物的静态模型。(3)关节运动生成:当前有许多研究指出可以利用逆向运动来生成关节运动,首先建立世界坐标系,得出角色角的具置,通过伪逆矩阵来实现动画角色全身各项关节处的旋转角度,进而促进关节运动的实现。

2.4运动捕获数据融合

将已经存在的运动数据作为输入,对这些已经存在的数据进行处理,形成新的数据,这个过程就是运动捕获数据融合的过程:(1)设定副词空间:在此空间的多条坐标轴都代表了不同的运动数据,可能是不同说话风格的数据,也可能是不同角色类型的数据。之后在每条坐标中用手工标注出预期相对应的运动数据样本,最后对这些数据进行插值处理,就能够得到新的运动数据。(2)将原始数据投影到低维空间中:对其进行参数化设置,这样就可以在其中进行草图的勾画,或对三维人体姿态进行操作,最后对这些原始运动数据进行插值处理。(3)运动检索:从运动数据库中实现对数据的捕捉,对捕捉到的数据进行检索,得到数据存在的逻辑关系,实现参数化的空间设置,之后进行差值处理,得到新的捕获数据;(4)运动纹理:运动纹理有2层结构,其是一种统计的模型,运动元素在底层结构中设置,能够表示出运动数据的相关片段,最后生成运动纹理的模型,从而实现具有真实感的人体三维数据。(5)多分辨率过滤:不同风格的运动有着不同的频率信号,多分辨率过滤法能够将高频信号和中低频信号分开。(6)独立成分分析:通过此方法能够生成真实感人体的运动数据,在原始高维人体运动数据中,对人体行为特点进行抽取,建立ICA子空间,并根据插值操作,形成人体运动新数据的产生。

2.5视频与三位模型融合

对动画角色和输入的视频动画进行动画角色的融合,这个过程就称为视频与三维模型的融合。上文中提到以多视点视频变形中性模型得到动画角色的方法,以此方法为基础,对一段角色的运动进行多视点拍摄,以其中的不同角度的角色侧影为约束条件,将角色模型进行投影,在各个视角显示,利用能量函数对中性模型进行变形,这样就能够使侧影和投影的重叠最大,最后运用时空的纹理技术进行纹理信息的提取工作,制定动画角色。视频的提取能够实现角色侧影的提取,对中性的模型实现变形的特征。还能够通过重建角色人脸的三维结构从而得到个性化的人脸,重建的过程中主要重建的是人脸之间的距离。

通过滤波器预测将要跟踪的特征的具置,之后完成特征的匹配,整个特征跟踪的流程为:预测――修正――预测,人体模型中有多个部位,且每一个部位之间都存在一定的比例关系,以这些经验知识为基础就能够恢复人体的三维运动。

通过对侧影的方法的实施来计算人体运动情况,进而得出一定的数据。首先需要进行侧影工作的提取,通过了解人体骨架结构,在人体内部做姿态搜索工作,得出最佳的姿态数据,用作恢复的结果,之后对角色进行驱动,从而获得角色动画。

此外,还可以通过对人脸特征的运动方式的追踪,进而实现对人脸目标的驱动,得到动画角色的人脸动画。

在上述分析的可视媒体融合中,都是通过侧影及运动的约束和对三维模型角色的驱动来完成的,因此成为视频与三维模型的融合。

2.6运动捕获与三维模型融合

首先介绍一种运动重定向技术,将一个角色产生的所有数据在相同的结构上重启,保存运动动作,保存原有运动角色的在时空条件上的约束,在重定的过程中要以此时空约束条件为基础。

分析一种异构角色之间的重定向技术,以运动样例为基础,提取关键字时,根据这个关键姿势构建动画角色的姿势,最后对关键帧进行相应的插值就能够得到所需要的目标角色动画。

当前还有比较流行的一种通过规定时空约束条件实现运动重用的过程,其主要以相应的目标函数为基础,对相对应的角色进行求解,建立目标角色动画。三维网络模型与骨架架构相互对应,利用一种自动识别技术对关节点位置、数量、结构等进行识别,实现对应,最后通过对运动数据的捕捉,实现目标动画角色的有机形成。

2.7图像、三维模型以及运动捕获数据三者的融合

先前所提到的都是2种可视媒体的融合,而图像、三维模型以及运动捕获三者可以进行融合,最终生成目标角色动画。首先,对人体角色进行拍摄,拍摄时需要注意,要从4个正交方向分别拍摄,之后要提取侧影,奠定角色侧影模型侧影与模型侧影之间的紧密联系,对两者之间的联系进行深入的了解,实现对中性模型的约束。当进行文理映射时,会通过对运动中捕捉到的数据建立驱动模型,形成动画角色。其中可以对变形中性模型进行细致划分,这样得到的角色模型会更加精确,也就能够驱动模型来获得效果更好的角色动画。以上分析的角色动画生成方法就融合了图像、三维模型以及运动捕获等3种可视媒体。

计算机视觉综述范文2

关键词 计算机图形学 第三方演示 课程群 分组实践

Abstract At present, computer graphics has become an important part of undergraduate computer education, and it is also plays an important role to cultivate innovative talents to adapt to the information age. Based on the teaching of computer graphics course by the author as an example, analyzes the existing problems in the teaching of computer graphics, and put forward improvement ideas from three aspects: according to the different needs of students utilizing the third party demonstration teaching and cross curriculum interpretation, introducing course group to replace single course, employing group practice examination instead of individual, and other forms to improve the quality of teaching.

Keywords computer graphics; third party demonstration; course group; group practic

计算机图形学是一门介绍显示、生成和处理计算机图形的原理和方法的课程。它在计算机总体教学体系中属内容综合性较强且发展迅速的方向之一。该课程既有具体的图形软硬件实现,又有抽象的理论和算法,旨在为学生从事相关工作打下坚实基础。学生须以高等数学和线性代数的基本理论和较熟练的程序设计能力作为本课程学习的基础。课程的难点在于计算机图形学研究范围广,与其他学科交叉性强,且知识不断更新变化。在教学实施过程中,难点是理解和掌握相应的基础理论和算法,以及利用计算机图形学相关工具进行图形学实际问题的解决。

本课程对学生的培养学生围绕以下三个方面展开: (1)建立对计算机图形学的基本认识,理解图形的表示与数据结构、曲线曲面的基本概念。(2)理解并掌握基本图形的生成算法,并能对现有的算法进行改进,理解图形的变换和裁减算法。 (3)面向算机图形的程序设计能力,以底层图形生成算法为核心构建应用程序。相应的考查方式由理论授课、上机实习和课外作业三个单元构成。从近年的授课实践和考试情况分析,该教学内容难度设置合理,深入浅出且相互承接成为体系,学生总体反馈良好。但也存在一些矛盾和问题。以下将对几个问题进行重点阐述与思考,并提出课程改革思路。

1 计算机图形学与计算机辅助设计衔接问题

笔者所在院校是具有航空航天背景的工科院校,“CAD计算机辅助设计”是飞行器设计、机械设计与制造等多学科的重要课程。相关学科学生期望通过对计算机图形学知识的深入理解,促进CAD设计工具诸如Catia、Solidwork和Rhino等先进工具的运用能力。然而,目前的计算机图形学课程的教学和考察环节倚重低层算法讲解与基于OPENGL等的程序设计,除综述外并未具体引入CAD相关内容。产生的问题是,一方面,飞行器设计及机械设计与制造等专业的学生由于程序设计能力不足,难以驾驭较复杂的程序设计任务,在学习过程中心理压力较大;另一方面,由于授课均为教师为计算机相关专业背景,该课程的讲授并未衔接CAD相关技术,学生难以构建二者之间的联系。

解决方案:

本质上,该问题是由于选课学生的学习动机和基础不同造成的。以单一的教学和考查方式难以兼顾这类面向具体应用的学习需求。在教学方法上,采用第三方案例教学法和交叉讲解法相结合以解决此问题。具体的,将CAD等应用场合以具体案例形式讲解,授课教师邀请飞行器、机械设计相关教研组研究生以4~6学时的讲台演示的形式呈现CAD工具完整设计过程。授课教师则以交叉讲解方式为学生讲解运用到的计算机图形学知识点,同时与学生交互式的问答和探讨。在考查形式上,考虑到不同的学习动机和基础,采用多样化实践环节考查。计算机专业学生以OPENGL程序设计为考点,而外专业学生以CAD等面向应用的实践工具为考点,以兼顾各专业的学习需求。

2 计算机图形学与计算机视觉相结合的问题

当前,虚拟现实技术(VR)和人工智能技术(AI)两个最重要最热门的研究领域。虚拟现实的基础理论支撑是计算机图形学,例如三维场景的生成与显示。而人工智能的一个重要应用场景是计算机视觉,例如基于图像智能识别的自动驾驶技术和场景理解技术。很多学生对以计算机视觉为代表的人工智能技术怀有浓厚兴趣,同时,学生又难以区分计算机图形学和计算机视觉的关系。同时,二者在近年来的研究中呈现相互融合的趋势。如基于三维立体视觉的机器人与场景实时定位与重建。如何在计算机图形学课程中,很好地体现两门课程的不同,避免学生的混淆,拓展学生的知识面,都是具有现实意义的课题。

解决方案:

实际上,计算机图形学和计算机视觉可不失一般性的概括为互逆的关系:计算机图形学是由概念设计到模型生成,最终绘制图形图像的过程;而计算机视觉则是从原始图像中再加工并分析理解、以产生新图像(如二维到三维)或输出语义信息(如图像自动标注与理解、目标检测与识别)。将计算机图形学纳入“视觉处理课程群”框架,使学生首先掌握课程群中各课程的侧重点,着重理解图形学在课程群中的作用。精心选取2~3个计算机视觉和图形学交叉的当前主流研究方向,展开概念层面的演示讲解,不深究具体算法,着重阐述两种技术的相互依赖关系并对比二者的区别。相关领域的演示还包括增强现实、人机交互、计算机辅助诊断等等。鼓励学生自主学习,最终使学生在做中学、用中学,提高独立分析新问题和综合运用知识解决问题的能力。

3 如何平衡算法讲解和程序应用技能

计算机图形学涉及的算法多,核心算法是该课程的必讲内容,在算法细节的讲解过程中学生容易产生畏难厌学情绪,注意教学方法以调动学生的兴趣尤为重要。另一方面,对学生的考察方式最终是通过编程实践完成。学生在编程实践中常常遇到大量调试问题,同时要阅读大量文档以了解OPENGL接口函数的调用方法,这个过程占用了很大工作量。

解决方案:

在理论教学部分,着重讲清计算机图形学原理和概念、全面解析经典算法思想。课程强调对理论核心思想的阐述,用通俗易懂的语言,条例清晰的逻辑,进行简明透彻的阐述,附以直观、形象的动态演示系统,力图使学生在较短的时间内、有效地掌握基本理论。分析图形学各种经典算法的原理、可行性及几何复杂性,尽可能多地比较算法之间的思想差异,分别指出它们的优缺点和应用场合,并促进学生思考如何在保证算法的准确性、可靠性的前提下,提高算法的效率。同时注重接近国际前沿的研究内容,注重讲授经典知识和最新进展相结合,以激发学生的学习兴趣,提高课堂效率和活跃度,力争以较少的课时阐述计算机图形学的基本原理、基本方法,加大实践环节比重。通过往年学生完成的优秀课程作业作品的展示,激发学生的创造热情。改革实践环节的考查方式,以项目小组形式取代对个体的考查。原则上每组3~5人,自由组合。在课程结束前,采用小组现场演示讲解的方式,展示小组成员通过编程实践环节完成的一个项目。学生在项目小M中锻炼了团队协作能力,降低了个人工作强度,同时互相学习和督促的氛围使课程作业的质量得以大幅提高。以基础实验――目标性重建实验――自主性训练的层次化实践框架模式,逐步培养学生自主研究,独立解决问题、分析问题,确定解决方案的能力,树立正确的科学研究习惯,培养学生的科学研究能力。

总之,合理设计实践教学案例,进一步实现课程体系和实践内容的统一,建立一个多层次、立体化的实践教学体系,注重学生的参与性与实践性,引导和鼓励学生进行创新实践和课外研学。改革考核方式和考试形式,加大实践环节在成绩中的比重,强化实践能力培养,寓教于乐的同时引导学生追求卓越。此外,计算机图形学技术是发展非常快的一个研究及应用领域,且对编程要求较高,应注重实验室机房投入更新必要硬件,并保障软件编程环境的正常运行。

L鼙疚氖苤泄┦亢蠡YBA15035,江苏省教改项目JGLX13_008资助

参考文献

[1] 孙家广,胡事民.计算机图形学基础教程.北京:清华大学出版社,2005.2.

[2] 唐荣锡,汪嘉业,彭群生等.计算机图形学教程(修订版).北京:科学出版社,2000.

[3] LIU Hailan.On development and application of computer graphics[J].Computer Knowledge and Technology,2010(3):9551-9552.

[4] 娄凤伟.创造性思维与计算机基础教学[J].教育探索,2002.

计算机视觉综述范文3

增强现实虚拟现实实现过程研究内容

1虚拟现实技术

虚拟现实技术(virtual reality,简称VR)是由美国VPL公司创始人加隆.拉尼尔在二十世纪八十年代提出的,它指的是综合利用计算机图形系统和各种显示和控制等接口设备,在计算机上生成的、可交互的三维环境中提供沉浸感觉的技术,其中计算机生成的、可交互的三维环境被称为虚拟环境(Virtual Environment,简称VE)。虚拟现实的三个基本特征是沉浸(Immersion)、交互(Interaction)和构想(Imagination)。与其它的计算机系统相比,虚拟现实系统能提供实时交互性操作、三维视觉空间和多通道的人机界面;目前虚拟现实主要限于视觉和听觉,但触觉和嗅觉方面的研究也取得了很大的进展。

2虚拟现实技术的具体形式之——增强现实技术

虚拟现实技术按照系统功能和实现方式的不同,又可以分成以下四种具体类型:沉浸式虚拟现实、桌面虚拟现实、分布式虚拟现实和增强现实。

增强现实(Augmented Reality,简称 AR)技术,是在二十世纪九十年代由波音公司的考德尔及其同事在设计一个辅助布线系统时提出的,它是一种实时地计算摄影机影像的位置及角度并加上相应图像的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。随着随身移动电子设备运算能力的不断提升,增强现实技术的用途将会越来越广。

目前人们对于增强现实有两种通用的定义。一是北卡罗来纳大学的Ronald Azuma于1997年提出的,他认为增强现实包括三个方面的内容:Combines real and virtual(将虚拟物与现实结合);Interactive in real time(即时互动);Registered in 3-D(三维)。

另一种定义是1994年保罗·米尔格拉姆(Paul Milgram)和岸野文郎(Fumio Kishino)提出的现实-虚拟连续统(Milgram's Reality-Virtuality Continuum)。他们将真实环境和虚拟环境分别作为连续统的两端,位于它们中间的被称为“混合实境(Mixed Reality)”。其中靠近真实环境的是增强现实(Augmented Reality),靠近虚拟环境的则是扩增虚境(Augmented Virtuality)。

3增强现实系统的实现过程

虽然增强现实系统不需要显示完整的场景,但由于需要通过分析大量的定位数据和场景信息来保证由计算机生成的虚拟物体可以精确地定位在真实场景中,增强现实系统中一般都包含以下几个基本步骤:获得真实场景的信息;对真实场景和摄影机的位置信息进行分析;生成虚拟的景物;合并视频或直接显示,即图形系统首先根据摄影机的位置信息和真实场景中的定位标记来计算虚拟物体坐标到摄影机视平面的仿射变换,然后按照仿射变换矩阵在视平面上绘制虚拟物体,最后通过头戴式可视设备(Head Mount Display)直接显示或与真实场景的视频合并后,一起显示在显示器上。成像设备、跟踪与定位技术和交互技术是实现一个基本的增强现实系统的支撑技术。

4增强现实技术的具体研究内容

由于人们对增强现实技术的需求不断增长,研究人员对基于视觉的增强现实技术进行了很多研究,这些研究内容包括——增强现实系统中虚拟物体与真实场景融合技术的研究包括:3D虚拟物体注册技术、摄像机标定技术、摄像机的跟踪技术和基于视频的实景空间的建模技术,融合技术的研究主要包括:虚拟对象和真实场景的配准以及虚拟物体与真实场景之间的动态一致性、虚实物体之间的几何一致性和光照一致性——使得增强现实技术获得了飞速的发展。

5增强现实的应用

增强现实技术已经被逐步应用到了很多行业当中,逐渐进入到我们的生活当中,典型的案例包括:

医疗方面——北卡罗莱纳大学的AR辅助B超检查和胸部活组织切片;伦敦Guy’s医院MAGI项目协助医生从耳道中取出神经瘤;卡内基梅隆大学的“魔眼”工程;布朗大学的外科手术培训系统。

教育方面——欧洲计算机工业研究中心的机械模型注解。

工业方面——SONY公司TransVision增强现实样机系统。

商业方面——微软推增强现实技术——新应用-记事帖;日本新宿高岛屋百货公司内的数字化妆镜。

文化方面——希腊、土耳其的历史古迹数字重建;“数字敦煌”工程。

6总结

增强现实(Augmented Reality,AR)技术是近年来的研究热点,它是将计算机生成的虚拟物体或其它信息叠加到真实场景中,从而实现对现实的“增强”,它是虚拟现实技术(Virtual Reality,VR)的一个重要分支。增强现实综合了计算机图形、光电成像、融合显示、多传感器、图像处理、计算机视觉等多门学科。

参考文献:

[1]郭天太,王引童.虚拟现实技术与增强现实技术.机械制造,2003,41(6):7-9.

[2]维基百科.

[3]R. Azuma, A Survey of Augmented Reality.Presence: Teleoperators and Virtual Environments, pp. 355–385, August 1997.

[4]P. Milgram and A. F. Kishino, Taxonomy of Mixed Reality Visual Displays.IEICE Transactions on Information and Systems, E77-D(12), pp. 1321-1329, 1994.

计算机视觉综述范文4

关键词:表情识别;研究方法;创新;不足

中图分类号:TP18文献标识码:A文章编号:1009-3044(2012)01-0106-03

A Survey of Facial Expression Recognition

SUN Wei1,2, WANG Bo1

(1.Information Science of Nanjing College for Population Program Management, Nanjing, 210042, China; 2.College of Automation Engineering, Nanjing University of Aeronautics and Astronautics, Nanjing 210016, China)

Abstract: Facial expression is a key to nonverbal communication, which has been confirmed by many different research projects. A change in intensity or magnitude of even one specific facial expression can cause different interpretations. In this paper, the background of facial expression recognition reaches and the study of the current situation at home and abroad are introduced Then those important international meetings and those novel reaches in this area are listed. At the end of this paper the limits in facial expression recognition are pointed out.

Key words: Facial expression recognition; Research methods; Innovation; Limits

人脸表情是人们鉴别情感的主要标志。人际交往中,面部表情为人们相互间的交流提供了一种非语言沟通的重要渠道,人们通过面部丰富细小的变化,能表达各种各样的表情,并且表情有时甚至比语言更能显示情感的真实性。

人脸表情识别是指通过计算机来计算分析人的脸部表情及变化,判定其内心情绪或思想活动,从而获得更加智能化的人机交互环境。在模式识别领域中表情识别是一个非常具有挑战性的课题,它在心理学、远程教育、安全驾驶、公共监控、测谎技术、电脑游戏、临床医学、精神病理分析等方面都有着广泛的应用。

1研究背景及现状

早在20世纪70年代,有关于人脸表情识别的研究就已经展开,但是早期主要集中在心理学和生物学方面。随着计算机技术的发展,人脸表情识别技术逐渐发展起来,到上个世纪90年代该领域的研究已经变得非常活跃。大量的文献资料显示表情识别已经从原来的二维图像走向了三维数据研究,从静态图像识别研究转向实时视频跟踪。

国内开展该项目研究的单位主要有:清华大学、北京科技大学、中国科学院、南京理工大学、中国科学技术大学、浙江大学、东南大学、南京大学、北京航空航天大学、西南交通大学、大连理工大学、天津大学、湖南大学等。国外较为著名的研究机构有麻省理工学院、卡内基梅隆大学、匹兹堡大学、马里兰大学、加利福尼亚大学、代尔夫特理工大学等。

国际上关于人脸或表情识别方面的国际会议中影响比较大的有:

CVPR:计算机视觉与模式识别会议(International Conference on Computer Vision and Pattern Recognition)

FGR:人脸与姿态自动识别国际会议(International Conference Automatic Face and Gesture Recognition)

ICPR:模式识别国际会议(International Conference on Pattern Recognition)

ICCV:IEEE计算机视觉国际会议(IEEE International Conference on Computer Vision)

SIGGRAPH:计算机图形和交互技术国际会议(International Conference on Computer Graphics and Interactive Techniques)

ECCV:欧洲计算机视觉会议(European Conference on Computer Vision)

ICMI:多模式接口国际会议(International Conference on Multimodal Interfaces)

ACCV:亚洲计算机视觉会议(Asian Conference on Computer Vision)。

VISAPP:计算机视觉理论与应用国际会议(International Conference on Computer Vision Theory and Applications)。

ACII:情感计算及智能交互国际会议(International Conference on Affective Computing and Intelligent Interaction)

ICBA:国际生物特征识别国际会议(International Conference on Biometric Authentication)

2研究内容

人脸表情识别(Facial Expression Recognition,FER)主要包括三个技术环节(如图1所示):首先是人脸的检测与定位,然后进行表情特征提取和识别,即从输入的图像中检测和定位人脸,然后再提取出对表情识别有用的信息并进行分类识别。

图1人脸表情识别系统

2.1人脸检测与定位

近十年来人脸检测得到了广泛的关注,并且取得了长足的发展和一定的成果。国内外很多学者提出了不少方法,现有的人脸检测技术方法,从不同的角度可以有多种分类方式。根据利用人脸知识的不同,现有的人脸检测方法可以分为基于特征的方法(Fea? ture-based Method)和基于图像的方法(Image-based Method)两大类[2, 3]。目前基于特征方法比较成熟,常用的有基于肤色特征[4,5]、模板匹配[6]等方法;基于图像的人脸检测方法主要有主成分分析法(Principal Component Analysis,PCA)[7]、人工神经网络(Artificial Neural Network Approach,ANNA)[8]方法、隐马尔可夫模型(Hidden Markov Models,HMM)[9]方法、支持向量机(Support Vector Machines,SVM)[10]方法和AdaBoost方法。

2.2特征提取

表情特征的提取方法分为基于运动与基于形变的两类[11]。其中运动是指表情发生时面部特征随时间的变化,而形变则是指有表情的脸相对于中性表情脸的差异。运动特征提取方法代表性的包括光流法[12]、运动模型、特征点跟踪方法等。面部特征的形变可以由形状和纹理两方面来描述,又可以分为基于模型的方法和基于图像的方法两类。其中基于模型的方法有活动外观模型(AAM)

[13]、点分布模型(PDM)[14]等;基于图像的方法有Gabor变换[15]、主成分分析(PCA)[16]等。

2.3表情分类

用于表情分类的方法可以分为时空域方法和空域方法两类[17]。其中时空域方法包括隐马尔可夫模型方法、回归神经网络方法、空时运动能量模板方法等;空域方法包括神经网络方法、支持向量机方法、AdaBoost方法、基于规则推理的方法、主成分分析、独立分量分析、Fisher线性判别分析等。

3存在问题

尽管在当前表情识别领域的研究中很多核心环节上已经取得了一定的成果如人脸检测,特征提取,情感分类等,但是该领域仍然存在以下问题:

1)缺乏对于自发表情识别方面的研究

人为表情识别和自发表情识别之间存在巨大的差异度,而目前大多数人脸表情识别都是对来自于现有的表情数据库(即人为表情)进行分析和识别,并非是对自然人的实时表情(即自发表情)。现有表情库里面的表情都是一些单一的比较夸张的表情,现实生活中人们的表情往往是混合的,强度也是深浅不一,因此需要加强对于混和表情以及表情强度方面的研究。

2)对于表情的标定还没有一个精细的标准

人类的表情可以说是多姿多彩、千变万化的,但是目前,包括FACS在内的现有人脸表情识别系统仅能做到简单的基本表情识别,因为很多现有的表情库中并没有具体的标定每一个表情该有的尺度。因此,今后的一个研究重点应该是加强人脸表情的视觉认知加工等认知心理学的基础研究,从而建立其更加精细的人脸表情描述标准,指导计算机进行人脸表情的精细识别。

3)需要提高表情识别的鲁棒性

个体表情对象研究时很多外部因素如:光照、肤色、姿势以及是否有遮挡物等都会对面部表情识别产生一定的影响,但是当前大多数的研究都是针对特定条件下的表情模式,实际上这些因素都影响到了表情识别的实用化,导致了表情识别的鲁棒性不强。因此,只有综合考虑人脸的表情、光照、噪声、附属物等影响并且使用恰当的判决模型才能较好地解决这个问题。

4)缺乏实用性的应用系统

人脸表情识别潜在应用十分广泛,但是实用性系统却很少,已知的有数码相机自动捕捉笑脸系统、驾驶员疲劳监测系统、微表情识别系统等。我们在开展人脸表情识别的基础理论研究同时,也应该结合工程应用需求,同时强化其在工程上的应用。

4总结

人的内心是丰富的,丰富的内心造就了人类丰富的表情,有些表情之间的差别本身也不是很明显,纵使自然人尚且不能精确的判断出每一个表情及其程度,更何况由人设计出的经验识别算法。虽然一些经典的识别方法已经取得了不错的识别率,但都是基于一定条件下的几种方法的综合,因此到目前为止仍然没人能够提出一种复杂如人脑的计算方法去让机器识别人脸的表情。

基于二维图像的人脸表情识别,由于维度的限制,不能提供识别对象的完整信息,而且它还受到环境和人脸表情图像本身因素

的影响,因此识别精度很难进一步的提高。三维图像在信息的完整度上避免了这样的缺陷,而且减少了外部光照和姿态变化的影响。因此,利用三维信息进行表情识别将是一个具有挑战性的研究课题。

参考文献:

[1]金辉,高文.人脸面部混合表情识别系统[J].计算机学报,2000,23(6):602-608.

[2]梁路宏,艾海舟,徐光,等.人脸检测研究综述[J].计算机学报,2002,25(05):449-458

[3]文沁,汪增福.基于三维数据的人脸表情识别[J].计算机仿真,2005,22(7):99-103.

[4] Chen D S,Liu Z K.A Survey of Skin Color Detection[J].Chinese Journal of Computers,2006,29(2):194-207.

[5] Hsu R.L, Abdel-Mottaleb M, Jain A.K. Face detection in color images[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2002,24(5): 696-706.

[6] Yullie A, Hallinan P,Cohen D. Feature extraction from faces using deformable templates[J].International Journal of Computer Vision,1992, 8(2):99-111.

[7] Turk M, Pent land A. Eigen faces for Recognition[J].Cognitive Neuro-science, 1991, 3(1):71-86.

[8] Rowley H.A, Baluja S, Kanade T. Neural Network-Based Face Detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998:20(1):23-38.

[9] Nefian A, Hayes M. Hidden Markov Models for Face Recognition[A].IEEE International Conference on Acoustics, Speech and Signals Pro? cessing[C].Seattle, Washington, 1998:2721-2724.

[10]马勇,丁晓青.基于层次型支撑向量机的人脸检测[J].清华大学学报:自然科学版,2003,43(1):35-38.

[11] Hongcheng Wang, Ahuja N. Facial expression decomposition[A]. In: Proceedings of International Conference on Computer Vision[C], Nice,France,2003:958965.

[12] Yacoob Y, DavisL. Recognizing human facial expressions from long image sequences using optic flow [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1996,18(6): 636-642.

[13] Tang F Q, Deng B.Facial expression recognition using AAM and local facial features [A].In: Proceedings of the Third International Conference on Natural Computation [C], Haikou, China, 2007:632-635.

[14] Hammal Z, Couvreur L, Caplier A,et al. Facial expression classification: an approach based on the fusion of facial deformations using the transferable belief model[J].International Journal of Approximate Reasoning, 2007,46(3): 542-567.

[15] Yu JG, Bhanu B. Evolutionary feature synthesis for facial expression recognition [ J].Pattern Recognition Letters, 2006,27( 11 ): 1289-1298.

计算机视觉综述范文5

【关键词】人脸侦测;眨眼侦测;Adaboost算法;开源函式库OPENCV

Abstract:The face detection system is more and more widely used in public because of its feature of high integration,high performance,high speed,low cast and stability.This paper presents how we compromise Face detection module with the blink detection function based on the OPENCV source.the camera is necessary which can be invoke by the OPENCV2.0.Each frame of camera will be send to the face module to test the possibility existence of a human face.After the detection of human face,the system will go further to detect the existence of the eye and locate the accurate position within the the algorithm of Adaboost.

KeyWords:face detection;blink detection;Adaboost algorithm;OPENCV

1.引言

生物特征识别技术辨识的是人身的固有特征,不需要身外的其他标识物,而人脸识别作为生物特征识别中的重要的手段,显示出重要的学术价值[1]。人们开始对人脸辨识展开研究,包括早期的模板匹配、子空间方法[2,3],这些方法较为单调死板,无法辨别复杂背景中的人脸的位置;sirohey等人提出的canny边缘检测算法[4]先得到一个边缘轮廓,然后用椭圆拟合人脸头部区域;基于分类器的机器学习方法,例如在PCA学习模型[5-6]基础上发展起来的boosting方法,对每个训练样本分配一个反映样本权重的阀值,经过反复迭代修正样本的权重,得到一个强分类器。Opencv(open source computer vision library)是intel释出的一个基于(开源)发行的跨平台计算机视觉库[7],在处理图像方面有卓越的优势,因此本文子图像处理方面引进了O pe nc V函式库,Adaboost算法的高精度和快速人脸检测是boosting方法中最具代表性的和现实意义的算法。因此本文在检测人脸方面采用此方法的基础。

2.系统模型

本文是基于opencv的人脸的检测,按照顺序,系统先检测有无人脸,若有,则在人脸的基础上定位人眼,人眼定位后,再检测是否有眨眼的动作,流程图如下:

本系统是实时的系统,基于opencv对摄像头实时输入的图像进行采集,对采集图像做前期处理:

capture = cvCaptureFromCAM(0);//抓webcam硬件

frame = cvQueryFrame(capture);//通过摄像头获取每一帧的图像;

收集的每一帧图像都将传入后台做人脸侦测。由于Adaboost在人脸侦测与人眼定位方面有较为突出的表现,能够在复杂的背景下快速定位人脸以及人眼定位,且能够克服一定的偏角,因此载入训练好的文件来侦测人脸和定位人眼:

首先载入训练好的人脸训练库:

cascade_f = (CvHaarClassifierCascade*) cvLoad(file1,0,0,0);

接着载入训练好的眼睛训练库:

cascade_e = (CvHaarClassifierCascade*) cvLoad(file2,0,0,0);

侦测图像中是否有人脸的物体:

CvSeq *faces = cvHaarDetectObjects (img,cascade_f,storage,1.1,3,0,cvSize(20,20 ) );

若侦测到人脸,画出方框:

为提高侦测的速度,在定位人眼时,我们在已经找到的人脸上设置ROI区域,即根据常识,我们只在人脸的上半部分定位人眼:

cvSetImageROI(img,cvRect(deteface->x,deteface->y + (deteface->height/5.5),deteface->width,deteface->height/3.0));

在ROI区域中定位人眼:

CvSeq* eyes = cvHaarDetectObjects(img,cascade_e,storage,1.05,3,0,cvSize(10,6));

若定位到人眼位置,画出方框:

在定位到人眼后,开始在眨眼侦测方面,定位了人眼的位置后,连通区域的由来,运用连通区域数量来确定是否眨眼,查找连通区域在get_connected_components函数实现: int get_connected_components(IplImage* img,IplImage* prev,CvRect window,CvSeq** comp),该函数主要实现一下功能:

通过对眨眼时连通区域变化的数目进行统计,然后以此经验值来判断眼睛区域连通区域数目的前後变化是否在眨眼的变化范围内。

3.实验结果与结论

在有偏角以及人脸侦测以及人眼定位方面:

眨眼侦测方面:系统能够准确的侦测到眨眼的动作。在侦测到眨眼的动作后系统会打印出BLINK的字样出来。

实验结果表明,运用opencv强大的函数库对图像进行实时的处理,其功能强大,方法简单快捷,有效提高了开发效率以及程序运行的可靠性,非常适合于快速开发。

本文在综合对比上述方法之后,选择用Opencv作为前期的图像处理,在人脸定位以及人眼定位上,选用Adaboost算法。两种手段的结合使系统具有识别效果好,实时性好,检测速度较快的优点。此外,本文在人脸检测的基础上增加了眨眼侦测的功能,为人脸识别向活体识别的方向发展提供了基础。

参考文献

[1]梁路宏,艾海舟,徐光佑,等.人脸检测研究综述[J].计算机学报,2002,25(5):449-458.

[2]山世光.人脸识别中的若干关键问题的研究[D].中国科学院技术研究所,2004.

[3]李武光,王崇骏,等.人脸识别研究综述[J].人脸识别与人工智能,2006,19(1):58-66.

[4]sirohey S A.human face segmentation and identification.Technical report CSTR-3176,university of Maryland,1993.

[5]Penland A et al.View-based Modular Eigenspaces for face recognition.Proc.IEEE Conf.on CVPR,1994,84-91

计算机视觉综述范文6

关键词:牛肉分级;边缘检测;二值化处理;自动分级

中图分类号:TS251.52 文献标志码:A 文章编号:1001-8123(2013)04-0010-05

2003年10月我国农业行业标准《牛肉质量分级标准》开始实施,鉴于牛肉眼肌横切面包含了大理石纹、肉色、脂肪色、背膘厚度和眼肌面积等评定指标,所以在牛肉质量的分级标准和体系中,进行牛肉等级评定时,通常都将眼肌面积横切面作为主要的评定对象。但目前为止,国内外的牛肉分级体系采用的分级方法还是以主观的视觉评定为主,评定过程受到人为因素的干扰,不仅效率低,而且还会产生较大的误差。因此,计算机视觉、人工神经网络和图像处理技术,被认为是实现牛肉自动分级的最有效的方法。在国外,1989年Chen Shengwei等[1]首次针对美国牛肉大理石花纹标准图版,应用图像处理技术对美国牛肉的肌肉脂肪面积进行计算,用于牛肉质量分级,并将其作为判定牛肉质量等级的定量指标,在随后的相关研究中,研究学者运用图像处理方法等技术分别有效的预测大理石纹、颜色等级、脂肪面积比、脂肪颗粒分布均匀度等特征参数,探讨了基于图像处理的牛肉等级评定技术[2-5]。在国内,计算机技术在牛肉等级评定中的应用还处于初步研究阶段,主要是通过眼肌切面图像的纹理分割,通过计算脂肪面积比[6-7]的方式来计算牛肉等级[8-10],对脂肪在肌肉中分布所形成的特征分析不够深入,对牛肉等级评定的准确性和实际应用等方面都有不足之处。本研究拟运用计算机视觉系统对牛肉眼肌的形状特征值、脂肪含量和分布进行量化,在VC++6.0的环境下自行开发适用于牛肉眼肌自动分级软件,提高分级的准确性和工作效率,为我国牛肉智能化分级技术的研究奠定理论依据[10]。

1 材料与方法

1.1 材料、软件及基本原理

采用Visual Basic6.0作为实验分析软件,利用图形处理中的二值化算法、边缘检测算法等对采集到的数字图像进行处理和分析,提取出用于牛肉眼肌自动分级的眼肌面积、圆度、大理石纹密度等重要参数,再利用模糊数学理论利用计算出的参数数据,实现对牛肉眼肌的智能自动分级。

1.2 方法

1.2.1 边缘检测法

物体图像的边缘信息特征因为颜色、纹理结构和灰度值的变化是以不连续性的形式出现,是图像最基本的特征之一。边缘检测法提取图像特征是图像识别中的一个重要属性和重要环节[11]。图像边缘检测中的经典算法SUSAN算法[12]选用放在不同5个位置上圆形模板,如图1所示。

比较模板内像素的灰度与核心的灰度,其差值在阈值内时,认为灰度相同。与核的灰度相同的像素数目之和称为模板的面积(USAN)。SUSAN算法根据USAN区的大小和矩阵特性来检测图像边缘及角点等特征的位置及方向信息[13]。由图1所示,平坦区域USAN区最大(d,e),边缘处USAN区大小降为一半(a),角点附近USAN区变得更小(c)。

1.2.2 二值化处理

图像二值化是指对仅含黑白二值的图像进行参数提取数据预处理的重要技术。采用直方图均衡化,同态滤波对图像进行预处理抑制外界因素提高图像质量,或者将图像划分为若干区域,分别设定阈值Tn,则:

(1)

由于所提取的大理石纹图像中,仅有肉色和脂肪色,即只有红色和白色两类颜色信息,因此在二值化处理过程中,采用第1种方法进行二值化处理。

图像分割是基于边缘检测或基于区域的分割,将同一属性但区域互不相交,均满足特定区域一致性条件的不同区域分割开来[14]。本研究采用区域生长法实现对图像的分割。

1.2.4 模糊综合评判

对模糊事物实现较合理的评价可采用模糊数学中的模糊综合评判法 [15]。设定因素集,集合中的某一元素Ui表示决定事物的第i个因素,评价集Vi表示对事物评价结果。

2 结果与分析

2.1 利用二值化算法提取大理石花纹

2.1.1 二值化算法

对大理石纹图像的特征参数提取时,均需要先对图像进行二值化处理,将彩色图像处理成只包括黑色像素点和白色像素点的图像。由于所提取的大理石纹图像中,仅有肉色和脂肪色,即只有红色和白色两类颜色信息,因此在二值化处理过程中,采用第1种方法进行二值化处理。

假定彩色图像的大小为M×N,fn其表示像素点的颜色值,f(I,j)表示像素点(I,j)的二值化结果,当f(I,j)=1时,像素点(I,j)被标记为黑色像素点,当f(I,j)=0时,像素点(I,j)被标记为白色像素点。对于某一像素点(I,j),如果该像素点的颜色值fn大于阈值T,则令f(I,j)=1,否则f(I,j)=0,实现对彩色图像的二值化处理。二值化方法如式(2)所示在二值化算法中,阈值的选取是二值化处理的关键,如何选取合适的阈值t,准确提取出不同图像中的大理石纹,是本算法的一个关键技术。本研究的所有实验,都是基于VC++6.0编程完成。在所有图像的二值化处理中,程序设计使用inputbox函数的数据输入方式,由用户根据个人经验输入某一个阈值T。

(2)

经过二值化处理后的图像,白色点表示脂肪像素点,黑色点代表肌肉像素点。本算法进行大理石纹的面积计算、圆度测量、密度分析等算法都是在图像二值化的基础上进行的,因此,图像二值化的结果将直接影响到后面参数的提取准确度问题。

2.1.2 二值化实验结果分析

图2是对原图像1采用不同阈值t的检测结果,图3是对原图像2采用不同阈值t的检测结果。从图2、3结果可以看出,对于不同亮度的图像,采用相同的阈值,如t=90时,对原图像1,可以很好的提取出二值化图像;而对原图像2,无法正常提取出所需要的区域信息。同样,对于t=160时,从图2D可以看出,对于原图像1,由于阈值太大,造成一些有用的大理石纹信息丢失,而对于原图像2,能更好的提取出需要的大理石纹信息,为后继准确的提取大理石纹信息提供保证。

本算法中,阈值的选取采用人机对话的方式选择阈值,希望后期工作中能研究出一种能自动根据图像颜色亮度特征智能选取阈值的算法。

2.2 利用区域生长算法提取有效眼肌面积

由于眼肌面积图像中仅含有白色和红色两种颜色区域,有效眼肌面积区域是一块连通区域,因此,采用种子点生长算法,可以很好的提取出和所选种子点相连通的所有连通区像素点。

有效眼肌面积的提取步骤如下:以原图像1(图3A)中眼肌面积的提取为例,先采用二值化算法,选用阈值t=90,使得眼肌内的区域为大片黑色联通区,再利用种子点生长算法,利用鼠标选取眼肌中黑色联通区中的一点作为种子点,生成的眼肌面积内的联通区,如图3所示。由于生成的联通区内存在大理石纹,所以眼肌面积是图像总面积减去灰色联通区的面积。

首先采用二值化算法,对原图像进行二值化处理,然后对处理好的二值化图像,用鼠标选取属于要计算面积区域中的某一黑色像素点,采用种子点生长算法[16],将所选取的像素点作为种子点,进行生长,识别出面积轮廓。由于图4中的面积区域,还存在白色大理石纹,不能直接计算出面积大小,因此,再对图4进行二值化处理,选取背景色中的任意1点作为种子点进行生长,然后进行背景图像区域的识别,再用总面积减去背景区域的面积,即可算出眼肌面积。对原图像1,利用本实验算法计算出的有效眼肌面积共14742个像素点。

2.3 肌肉和脂肪色度值

将图像中所有肌肉像素点采用种子点生长的算法提取出来所有的红色像素点区域,对提取出的肌肉连通区图像,遍历整个图像,计算出连通区中所有像素点的Red、Green、Blue三个颜色分量的平均值,再使用颜色公式w(x,y)=Red+Green×256+Blue×65536,计算出所有肌肉像素点的颜色平均值。同样的算法,可以提取出白色脂肪的色度值。对原图像1(图2A)进行肌肉色度和脂肪色度的计算,计算出了脂肪色度为11437206,肌肉色度为7428162,对原图像2(图3A)所示的图像,计算出的脂肪色度为11718453,肌肉色度为127466071。该颜色值越大,说明图像颜色亮度越大,色值越高。

2.4 眼肌圆度

有效眼肌面积的圆度可以采用计算其长轴的长度和短轴的长度,通过长短轴的比值来衡量眼肌面积的圆度。在一幅灰度图像中,已知中两个像素点的坐标(x1,y1)、(x2,y2),利用两点间距离的计算公式:

(3)

可以计算出某一直径,直径的大小即为长轴的长度。因此,查找到有效眼肌面积的长轴的两个像素端点是计算长轴的关键。

本算法采用种子点生长算法提取出有效眼肌面积的连通区,然后由用户利用鼠标,选取出长轴的起点,如图5B所示,设置出长轴的起点坐标(x1,y1)。然后在如图5C所示的连通区中找到离该点最远的像素点坐标值(x2,y2),利用两点间距离公式,计算长轴的长度。短轴是在长轴垂直平分线上的离长轴中点((x1+x2)/2、(y1+y2)/2)最远的点和中点间的距离。测量结果显示,长轴215.94,短轴55.08,长短轴比率:55.08/215.94≈0.51,比值越接近于1,说明眼肌面积越趋向圆。

2.5 大理石纹密度

对大理石纹密度统计分析分为5个步骤进行:第1步,采用区域生长法或者边缘检测算法对原图像进行图像分割,将图像分割成不同的很多连通区;第2步,对所有连通区进行着手标记,同一连通区着相同的颜色,不同的连通区采用不同的颜色;第3步,统计所有连通区各自的面积大小区域;第4步,统计图像中连通区总数目;第5步,统计标记的连通区面积在0~5、5~10、10~15、15~20等范围内的连通区个数。

2.5.1 不同连通区着色

采用眼肌面积算法中的种子点生长算法,对整个图像进行遍历,识别出所有的连通区,并用不同的颜色值标记出不同的连通区。

对照高标准的密度检测结果图7和低标准的密度检测结果图8检测结果发现,相同像素点下连通区总数越多,说明大理石纹越丰富。像素点总数小于5的连通区的个数表明大理石纹的分散程度,值越大,说明越分散,密度越大。

2.6 基于模糊数学理论的牛肉大理石花纹自动分级系统

针对牛肉自动分级中大理石纹参数特征值的模糊性、相关性、多变量等特点,结合模糊数学理论,将所提取出来的所有眼肌面积、大理石纹密度,眼肌面积的圆度、色度等多个参数,采用模糊数学理论中的综合评判技术建立了基于模糊综合评判的牛肉大理石纹自动分级模型。例如:使用模糊综合评判算法记U={眼肌面积,圆度,肌肉色度,脂肪色度,大理石纹密度},表示因素集,表示决定牛肉分级品质的所有因素。记?={a1,a2,a3,…,an}。取评价集V={低品质牛肉,中等品质牛肉,优质牛肉,特优级牛肉},表示牛肉的评价结果。

对牛肉品质等级的判定,需要综合考虑各种因素,如牛肉的大理石纹分布的密度,有效眼肌面积的圆度、色度、面积大小等。结合本系统中采用数字图像处理技术自动提取出的相关的参数信息,然后考虑所有因素对评价集V中各等级的隶属度,可得综合评判矩阵如。

3 结 论

利用了图像处理中的边缘检测技术、二值化处理和图像分割技术,先对原牛眼肌图像进行二值化处理,然后对处理好的二值化图像,采用种子点生长算法,识别出眼肌面积轮廓,进行背景图像区域识别,计算眼肌面积,并采集连通区中所有像素点的Red、Green、Blue 3个颜色分量,计算出所有肌肉和脂肪像素点的颜色平均值,并对有效眼肌区域的圆度和大理石纹分布密度进行参数提取和检测。结果证明,本实验设计的算法能够近似的估算出牛眼肌面积、脂肪比例、色度值、眼肌圆度和大理石花纹密度,是一种有效的估算方法,并通过大量实验数据和人工测量数据进行比对,证明使用图像处理技术自动估算上述5个特征参数是可行的,为基于计算机视觉的牛肉品质自动分级检测奠定基础。后期工作中希望能并结合大理石花纹的特点和特征描述以及具体牛肉图像的特点,通过大量的数据,使用模糊聚类,模糊识别、模糊综合评判等技术,给出接近现实的、准确的牛肉等级判定结果,为进一步研究基于计算机视觉的牛肉自动分级系统打下基础。

参考文献:

[1] CHEN Shengwei, SUN Xin, QIN Chunfang, et al. Color grading of beef fat by using computer vision and support vector machine[J]. Computers and Electronics in Agriculture, 2010, 70(1): 27-32.

[2] YOSHIKAWA F, TORAICHI K, WADA K, et al. On a grading system for beef marbling[J]. Pattern Recognition Letters, 2000, 21(12): 1037-1050.

[3] SHIRANITA K, HAYASHI K, OTUSBO A. Determination of meat quality using texture features[J]. The Institute of Electronics, Information and Communication Engineers Transactions on Information and Systems, 2000, 83(4): 1790-1796.

[4] AASS L, FRISTEDT C G, GRESHAM J D. Ultrasound prediction of intramuscular fat content in lean cattle[J]. Livestock Science, 2009, 125(2/3): 177-186.

[5] KAZUHIKO S, KENICHIRO H I, AKIFUMI O, et al. Grading meat quality by image processing[J]. Pattern Recognition, 2000, 33(1): 97-104.

[6] CHEN Kunjie, QIN Chunfang. Segmentation of beef marbling based on vision threshold[J]. Computers and Electronics in Agriculture, 2008, 62(2): 223- 230.

[7] 陈坤杰, 姬长英. 牛肉自动分级技术研究进展分析[J]. 农业机械学报, 2006(3): 159-162.

[8] 陈坤杰, 孙鑫, 陆秋琰. 基于计算机视觉和神经网络的牛肉颜色自动分级[J]. 农业机械学报, 2009(4): 179-184.

[9] 陈坤杰, 秦春芳, 姬长英. 牛胴体眼肌切面图像的分割方法[J]. 农业机械学报, 2006(6): 161-164.

[10] 任发政, 郑丽敏, 王桂芹, 等. 应用MATLAB图像处理技术评判牛肉大理石花纹[J]. 肉类研究, 2002(4): 14-15.

[11] 贾渊, 李振江, 彭增起. 结合LLE流形学习和支持向量机的猪肉颜色分级[J]. 农业工程学报, 2012(9): 154-159.

[12] 魏光杏, 吴锡生. 新型边缘检测法[J]. 计算机工程与设计, 2007(4): 144-145.

[13] GE X W, FU K T. Edge detection in image method research[J]. Digital Community & Smart Home, 2007, 3(16): 1144-1145.

[14] 王文渊, 王芳梅. 改进的最大熵算法在图像分割中的应用[J]. 计算机仿真, 2011(8): 297-300.