光学动捕技术范例6篇

前言:中文期刊网精心挑选了光学动捕技术范文供你参考和学习,希望我们的参考范文能激发你的文章创作灵感,欢迎阅读。

光学动捕技术

光学动捕技术范文1

光隐身等新材料相继问世

科学家设计出具有可变折射率的材料,开发出首个可见光“隐身斗篷”;声呐探测不到的“隐声衣”则是由超介质材料制造的声音线路,通过弯曲或扭转来控制声波;利用原子之间能反复形成共价键的原理研制的具有超强自修复能力的聚合物材料,破碎后只需紫外线照射便能重新长在一起;在加热和低压下让普通蔗糖接触流动的氢气和氩气,10分钟即制造出纯净的单层石墨烯,其厚度可通过调整气体的流动控制;通过在干冰中燃烧纯金属镁将二氧化碳转化成多层石墨烯,找到量产石墨烯的简单方法;高效存储氢的纳米复合材料能在常温下快速吸收和释放氢气;“诱导”聚合物拟肽链自我组装成的纳米绳子非常坚固,足以应付受热和干燥等恶劣环境;新研发的超黑材料堪称“吸光之最”,吸光率超过99%;世界上最轻的材料吸能性能与人造橡胶相仿,重量却仅是聚苯乙烯泡沫塑料的1/100。美日科学家以镱为基础材料研制的新型超导体在自然状态就能达到“量子临界点”;科学家还将两块不具有磁性的绝缘体黏合在一起,首次证实了磁性和超导性可共处。

英国

石墨烯研究应用前景看好

英、美、韩科学家共同利用超声波脉冲,在几个小时内高效地将多种特殊层状材料制成只有一个原子厚的石墨烯样纳米微片,成本低廉,可规模化生产。科学家还发现石墨烯内电子运动速度是硅中的数十倍,进一步揭示了石墨烯的电学性能;用两块硝酸硼和两块石墨烯组成多层结构能观察到石墨烯不受环境影响的状态,进而能摒除环境的负面影响并控制其性能;石墨烯与金属纳米结构结合可将石墨烯聚光能力提高20倍,一改其因聚光效率低下而难以运用于下一代光电设备的弊端;首次用打印机打印出由石墨烯制成的柔性电路,使大规模廉价制造可穿戴的电子设备成为可能;发现球形碳分子富勒烯在一定条件下能形成单一成分胶体,使对富勒烯的开发应用迈进一步。英、美、新科学家研制出零折射率“超材料”,使操纵光的折射率、完全控制光在空气中的传播成为可能。

德国

新型超导防冰防晒等材料

中、德科学家合作研制的“杂化”纳米材料,强度和塑性变形能力可通过施加电信号快速、大幅、往复调节;德国科学家利用强红外激光脉冲照射,在零下263摄氏度时将含稀土的铜氧化物陶瓷材料转变为高温超导体,持续约一皮秒;一种针对合成材料的防冰材料利用等离子技术,可防止结冰和冰黏附;用“激光直接写入法”制成一个特殊的带方形蛋白质连接材料的抗蛋白聚合物支架,并成功培养目标细胞,首次实现在三维结构中对细胞附着与细胞形态的精确控制;智能防晒玻璃达一定温度时变为模糊,可隔离30~50%的太阳热量,温度下降后玻璃又变得透明光亮;使用一种特殊编织技术研发的血管植入支架生产方法,因不需昂贵的激光切割工艺,成本得以降低。

日本

纳米管光电池技术有进展

新的纳米管制造方法不需要1000度以上的高温,应用前景广阔;一种可大大提高色素增感高分子光电池效率的新方法,改变了其发电效率低于硅质光电池的状况,有利于有机系光电池的普及;一种新型光热发电素子即使埋入体内也能发电,为埋入式医疗机器的电力供给提供了新手段。

巴西

植物废料制造超级塑料

科学家从植物废料中提取纤维制造出新一代超级塑料,其制造的产品重量为传统产品的1/30,强度却增加三四倍;一种用于鞋和纺织品的纳米技术,不仅可以防止异味,还能够起到滋润皮肤的作用。

俄罗斯

纳米多孔氧化铝新法

纳米技术是俄罗斯近年来颇为重视的科技产业,预计到2014年基础研究领域国家投入将达到80亿美元。科学家研发以硅片为基材,采用磁控溅法生产纳米多孔氧化铝已获成功。

韩国

料燃料电池取得新成果

科学家研发出两种新材料:一种为可使固体氧化物燃料电池在低温状态下运作的“碳素薄膜银纳米粉末催化剂”,另一种为可大幅缩小甲醇燃料电池体积、提高能效的“放射线照射高分子燃料电子膜”;新研发的2分钟内完成充电或放电的新型电极材料,使手机或电动车大举缩短充电时间,其短时大放电量又可提高输出功率,经400次充放电后容量仍在98%左右;韩、澳科学家利用下一代新材料碳纳米管开发出长1毫米可旋转250度的纤维,可用于微型机器人驱动装置。

南非

高性能天然纤维诞生

科学家在与空客公司合作的基础上,利用酚醛树脂和天然纤维生产出适合航空器要求的生物复合材料,目前正在研究100%的生物复合塑料,并计划扩展到电子、汽车制造等行业。聚糠醇可从当地大量甘蔗废渣中获得,且价格便宜。

加拿大

新的纳米捕光“天线”

科学家研制出新一代纳米捕光“天线”,能控制和引导从光中吸收的能量,这种由量子点自我组装而成的材料被命名为“人造分子”,填补了“可以使用多种不同类型的纳米量子点构建出复合物”的空白;一种新型玻璃防水雾涂层可最终解决汽车玻璃、眼镜片及镜头的防雾难题,且不会对玻璃光学性能产生影响。

法国

新型吸碳材料性能非凡

科学家研制的新材料能大量吸附二氧化碳,其1立方米的体积在25摄氏度时可储藏400立方米的二氧化碳,是现在通用吸附材料储藏量的2倍以上,为温室气体减排提供了新思路。

乌克兰

光学动捕技术范文2

ス丶词:码书;双摄像机协同;人脸检测;目标跟踪

ブ型挤掷嗪: TP391.41 文献标志码:A

Abstract: The major aim for modern video surveillance is to capture clear imagery of Region of Interest (ROI) in largescale and scene. However, it is hard to achieve the goal by zooming when the ROI is far from the surveillance system. A stationmotion camera system was designed to acquire the detailed and overall information of pedestrian at distance to obtain the facial feature. A stationary wide Field Of View (FOV) camera was used to monitor an environment for detecting pedestrians by improved Codebook background subtraction. Then a PanTiltZoom (PTZ) camera was steered to track a target detected in the stationary camera, and zoomed in it speedily when pedestrian stopped moving. Afterwards, a face detection procedure used the images received from PTZ camera to obtain pedestrian face. Once the face was detected, PTZ camera put it in the center of the FOV and zoomed to acquire highdefinition image. While the pedestrian continued moving, PTZ camera received the location of pedestrian from the station camera and tracked it continually. The experiments on real indoor and outdoor environments show that the proposed wide FOV camera pedestrian detection algorithm is robust to illumination variations, and the PTZ camera can track and zoom in the face of pedestrians. Besides, the speed of the method meets the realtime requirement.

Key words: Codebook; dualcamera cooperation; face detection; object tracking

0 引言

现代社会安全领域越来越受重视,视频监控广泛应用到公共场所,如地铁站、停车场等,视频监控的重要目的是获取感兴趣区域的清晰图像。随着监控区域的不断扩大,人们使用广角摄像机或安装多摄像机来满足需要。但是广角摄像机图像会发生畸变且物体分辨率较低,准确度有限;感兴趣目标距离摄像机较远时,多摄像机也不能得到目标的细节信息。为了既获取整体图像,同时得到远距离感兴趣目标的清晰图像,研究者们先后提出了静止―运动双摄像机系统[1-6],这些系统的基本思想是:静止摄像机用广角监控大范围区域,运动摄像对准放大感兴趣目标获取细节信息。不同之处在于各系统采用了不同的双摄像机协同控制方式:Distant Human IDentification (DHID) 系统[1]利用广角摄像机检测出运动目标,并对目标进行简单分类,然后将行人位置转化为运动摄像机旋转角度,运动摄像机采用固定焦距方式跟踪行人获取图像。文献[2]中运动摄像机仅根据广角摄像机的检测结果对运动目标跟踪放大获取感兴趣区域信息,不对运动目标特征进行后续分析和识别。文献[3-4]假设已知目标在广角摄像机中的位置,通过分析双摄像机的自动标定,使运动摄像机旋转对准广角摄像机中的待观察目标。文献[5]利用全景摄像机作为广角视场,从广角中检测出场景中的人脸,驱动运动摄像机对准观察获得人脸图像。文献[6]从广角视场中检测出固定的交通标识符,运动摄像机对准观察得到图像并进行交通符号识别,但该方法中运动相机不进行缩放控制,影响了交通标志符号识别精度。

本文提出了一种广角摄像机和PTZ (PanTiltZoom)摄像机组成的协同鹰眼观测系统,该系统通过场景目标检测、运动相机缩放控制、人脸检测等步骤实现远距离人脸清晰定位。其主要思想是:利用改进的Codebook的背景减法检测运动目标,控制模块接收到目标的位置由查表法得到PTZ摄像机对准目标需要旋转的角度;根据目标的大小,控制PTZ摄像机缩放,确保目标处于PTZ摄像机的视野之中,当目标停止运动时,则对目标进行放大。若为行人,则用肤色模型和Adaboost算法检测人脸[11],再调整位置和焦距使得人脸处于视野的中心位置并得到放大后的人脸图像。如果目标再次运动,则从广角摄像机再次传入运动目标位置和大小,通过双摄像机协同控制方式得到人脸的清晰图像。

1 改进的Codebook前景检测方法

背景减法是一种常用的固定场景中动目标检测方法,如高斯混合模型、ViBe、Codebook等。高斯混合模型方法计算量较大[7];ViBe方法虽然运行速度快,但采用欧氏距离作为前景分割依据,对阴影的抑制效果欠佳。基于Codebook的背景减法为每一个像素建立Codebook,若像素和它的背景Codebook不匹配,则认为是前景,反之为背景[9]。Codebook是一种鲁棒的前景目标检测方法,能有效地去除阴影,本文在基本的Codebook上对其进行改进:修正误检测区域,在更新的过程引入8擦谟蛳袼亍*

Codebook为图像的每个像素建立起Codebook模型Е={c1,c2,c3,…,cL}包含LЦCodeword ci,ciв善ヅ湎袼氐木值向量vi=(Ri,Gi,Bi)及一个6元组的变量auxi=(I┆mini,I┆maxi, fi,λi,pi,qi)组成,其中I┆mini,I┆maxi分别表示匹配像素的最小、最大亮度,fi,λi分别为匹配次数和最长未匹配时间,pi,qiП硎臼啄纹ヅ涫奔洹N了建立Codebook的初始模型,а癯【爸形窗含目标的N帧序列X={x1,x2,x3,…,xN}(N

初始化Codebook模型Е游空,L= 0。t′=1:N,对训练序列X中t′时刻的像素xt′=(R′,G′,B′),判断该像素的Codeword是否为空。若是,LL+1,Т唇ㄒ桓鲂碌Codeword c′(v′,aux′)Ъ尤氇Е营е校邯

v′(R′,G′,B′),aux′(x′,x′,1,t′-1,t′,t′)オ

若非空,则判断与现有Codeword是否匹配,即是否同时满足式(1)和(2)条件。若不匹配,亦创建一个新的Codeword。若匹配则按式(3)、(4)进行更新。重复训练直到Иt′=N时结束得到Codebook背景模型。

Codebook背景模型建立之后,Ф匀我t时刻像素xt=(R,G,B)в氡尘Codebook匹配进行前景分割,矢量xt是否与Codeword匹配由颜色畸变和亮度范围决定。其中颜色畸变由式(1)表示:

colordist(xt,vi)=xt2-[xt,vi]2vi2

其中А•П硎鞠蛄2卜妒,[xt,vi]表示向量内积,ε1为给定的阈值。オ

亮度范围由式(2)表示

rightness(xt,I┆mini,I┆maxi)=true,若xt∈[I┆low,I┆high]おfalse,其他(2)

其中:I┆low=αI┆maxi,I┆high=min{βI┆mini,I┆maxi/α);α∈[0.3,0.7],│>1为根据环境给定的参数。若匹配条件其中之一不满足,则该像素与当前的Codeword不匹配,若对背景Codebook中所有的Codeword都不匹配,则认为该处为前景。

由于短时间内光照变化剧烈,Codebook前景目标检测在物体的边缘和反光处,容易出现误检测。若某一片区域中只含稀疏的前景点,则可判定这一区域是由噪声引起的误检测。以p×p为最小单元对Codebook检测结果改进。

1)统计p×p区域M前景点数f;

2)如果f/p2

3)统计M四邻域前景点fi:fi/p2

4) M中前景点修正为背景,并加入到背景Codebook中;

5)返回1)对下一p×p区域进行检测。オ

原Codebook更新过程中,只考虑当前像素随时间的变化,忽略邻域空间的影响,为了增强检测的鲁棒性,在匹配Codebook更新过程中加入邻域的变化[8]。算法如下:

1)随机读取匹配点8擦谟蛑邢袼兀xn=(R,G,B);オ

2)随机选择匹配点中的Codeword cr=(vr,auxr)О词(3),(4)更新:

vr=vrθ+xn(1-θ);θ∈(0,1)为更新参数(3)

auxr=(min(xn,I┆minr),max(xn,I┆maxr),

fr,λr,pr,qr)(4)

检测结果如图1所示。

2 广角摄像机对PTZ摄像机运动指引

广角摄像机检测出运动目标后,驱动PTZ摄像机对运动目标进行放大观察。这一过程需要完成以下操作:1)旋转对准目标;2)调整焦距放大目标。

2.1 建立查找表标定双摄像机

双摄像机标定就是:已知目标在广角摄像中位置M(x,y),求得PTZ摄像机的水平旋转角Е联Ш痛怪毙转Е拢使得PTZ摄像机旋转对准目标,即:

L[M(x,y)](α,β)オ

本文通过建立查找表实现双摄像机标定[10],具体的步骤如下:

1)选择广角摄像机视频监控区域中需要用PTZ摄像机重点监控的感兴趣的区域(Region Of Interest,ROI)。

2)根据合适的间隔划分广角图像ROI为网格状,得到网格交点处的像素坐标M11(x1,y1),M12(x1,y2),M21(x2,y1),M22(x2,y2),…。オ

3)控制PTZ摄像机旋转,直到PTZ摄像机图像中心与M11е睾希读取PTZ摄像机当前水平方向和垂直方向的旋转角度(α,β)11,Ъ锹家蛔槭据L[M11(x1,y1)]=(α,β)11。オ

4)对剩下广角图像ROI的交点处重复3)的操作,记录所有的L[M(x,y)]=(α,β)。オ

5)ROI中,非网格交点S(x,y),Р檎野含它的最小矩形M11M12M21M22,в盟线性插值式(5)求取PTZ摄像机旋转到角度:

(α,β)s=1(x2-x1)(y2-y1) [L(M11)(x2-x)(y2-y)+

L(M12)(x2-x)(y-y1)+L(M21)(x-x1)(y2-y)+

L(M22)(x-x1)(y-y1)](5)オ

6)组合步骤3)~5)中的数据得到PTZ摄像机旋转对准广角ROI区域任一位置的查找表。

2.2 PTZ摄像机对目标缩放观察

初始状态下,两台摄像机获取图像分辨率都为W×H,物体在PTZ摄像机成像大小是广角摄像机的Е瘫(μ>1)。假设目标在广角摄像机中的大小为Wm×Hm,г蚴鼓勘瓿渎PTZ摄像机所要放大的倍数:

Е=minWWmμ,HHmμ(6)

根据Е锚Х⑺椭噶畹髡PTZ摄像机焦距,可得到行人放大后的图像,结果如图2所示。

3 PTZ摄像机自主运动获取人脸图像

对于行人,最显著的特征是面部特征。获取清晰的人脸可有效改善视频监控的效果,扩大视频监控的应用范围,同时也可以为人脸识别等技术提供可靠的材料。

PTZ摄像机图像中检测到人脸后,利用PTZ摄像机的机动性,采用数字PID控制使得目标人脸处于图像的中心位置,然后进行适当的缩放。具体步骤如下。

3.1 位置调整

1)Щ袢〉k帧图像人脸的位置(xf,yf),其中xf,yf表示人脸中心在图像中的坐标。 オ

2)计算偏差e(k)x=xf-u,e(k)y=yf-v,其中u,v为PTZ摄像机图像中心X方向和Y方向坐标。オ

3)如果e(k)x>20e(k)y>20:オ

ИΔUx=KP[e(k)x-e(k-1)x]+KIe(k)xオ

ИΔUy=KP[e(k)y-e(k-1)y]+KIe(k)yИ

其中ΔUx,ΔUyХ直鹞PTZ摄像机水平方向和垂直方向的旋转角度。

4)进入下一次位置调整。

3.2 缩放调整

1)获取第K帧图像人脸的宽度wf和高度hf。オ

2)如果(wf•hf)/(W•H)

3)如果(wf•hf)/(W•H)>0.25,PTZ摄像机以0.8倍每次的速度缩小图像。オ

4 双摄像机协同控制

PTZ摄像机参与广角摄像机对PTZ摄像机运动指引和PTZ摄像机自主运动获取人脸图像两个过程,根据尽量获取目标细节信息和避免目标从运动摄像机视野中丢失的原则,设立双摄像机协同控制的优先级。

1)广角摄像机指引运动摄像机跟踪准行人并缩放,将行人缩放至整个视野的1/4,即放大倍数为0.25γ。オ

2)放大静止目标,目标静止的判断算法如下。

Б倩袢∧勘曜钚碌40个位置信息T={p1,p2,…,pi},i=40,pi=(cix,ciy,wi,hi),cx,cy为目标中心位置横向和纵向坐标,w,h为目标宽度和高度;オ

②计算目标中心坐标和目标宽度及高度的均值:

(cx ,cy ,w,h)= 140∑40i = 1(cix ,ciy ,wi,hi)オ

③For i=1:40オ

if (cx -cix < 0.15•cx && cy -ciy < 0.15•cy )

static++;オ

End;

if (static>16)オ

目标静止;

else

目标运动;

④进入下一次目标运动状态判断。

当目标静止时,将目标放大至视野的75%,即放大倍数为0.75γ,便于进行人脸检测。オ

3)运动摄像机位置调整跟踪人脸,完成的条件为人脸中心位置在一个20×20的区域内。

4)运动摄像机对人脸进行放大,将人脸缩放至8万像素。

双摄像机协同流程如图3。

5 系统实现与实验结果分析

为了实现系统功能,把两台摄像机平行安装在双云台支架上,观察同一场景,如图4所示。

广角摄像机为SONY 453P,外加广角镜头。PTZ摄像机为EVID70P,水平方向旋转角为160°,垂直方向仰角90°、俯角30°,18倍光学调焦。处理平台是HP xw6400 Workstation。根据本文所述方法,采用OpenCV+MFC编写程序。图像分辨率576×752,在自然光照条件下,选择220×550作为ROI区域,运动目标检测速度达到18@fps以上。对进入行人进行跟踪并获取人脸的清晰图像,结果如图5和表1所示。

在不同光照条件下,运动目标检测和PTZ对目标的跟踪都有较好的效果,能满足实时需要;在正确检测出人脸的条件下,人脸的定位和放大都能快速实现。由于PTZ摄像机本身调焦速度较慢,正确定位后再放大人脸的时间在4@s左右,能够满足实际需要。

6 结语

针对视频监控中不能获取中远距离感兴趣区域清晰图像的问题,本文采用静止―运动双摄像机获取全局图像和感兴趣区域细节信息。采用Codebook对行人进行检测,修正误检区域;用查找表的方式实现双摄像机的标定,对行人跟踪并缩放,当行人停止运动时,PTZ摄像机自主检测和跟踪人脸,双摄像机协同控制实现目标的可持续监控。本文方法的特点如下:1)对Codebook背景减法进行改进,改善了检测效果。2)采用跟踪菜醴弄捕ㄎ华卜糯蟮哪J蕉愿行巳で域进行监控。实验结果表明系统可靠有效。

げ慰嘉南:

[1] ZHOU X H, COLLINS R,KANADE T, et al.A masterslave system to acquire biometric imagery of humans at distance[C]// ACM International Workshop on Video Surveillance. New York: ACM,2003:113-120.

[2] BODOR R,MORLOK R,PAPANIKOLOPOULOS N. Dualcamera system for multilevel activity recognition[C]// 2004 IEEE/RSJ International Conference on Intelligent Robots and Systems.New York:IEEE, 2004:643-648.

[3] SENIOR A W, HAMPAPUR A,LU M. Acquiring multiscale images by PanTiltZoom control and automatic multicamera calibration[C]// IEEE Workshop on Applications on Computer Vision. New York:IEEE, 2005:433-438.

[4] HORAUD R, KNOSSOW D,MICHAELIS M, et al. Camera cooperation for achieving visual attention[J].Machine Vision and Applications,2006,16(6): 331-342.

[5] FAHN C S,LO C S. A highdefinition human face tracking system using the fusion of omnidirectional and PTZ cameras mounted on a mobile robot [C]// Proceedings of the 5th IEEE Conference on Industrial Electronics and Applications. New York:IEEE,2010:6-11.

[6] GU Y,YENDO T,TEHRANI M P, et al. A new vision system for traffic sign recognition[C]// Intelligent Vehicles Symposium (IV). New York:IEEE,2010:7-12.

[7] STAUFFER C, GRIMSON W E L. Adaptive background mixture models for realtime tracking[C]// Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York:IEEE,1999:246-252.

[8] BARNICH O,van DROOGENBROECK M. ViBe: a universal background subtraction algorithm for video sequences [J]. IEEE Transactions on Image Processing, 2011,20(6): 1709-1724.

[9] KIM K, CHALIDABHONGSE T H,HARWOOD D, et al. Realtime foregroundbackground segmentation using codebook model[J].Journal of Realtime Image Processing,2005,11(3): 167-256.