首页 > 文章中心 > 计算机视觉的运用

计算机视觉的运用

计算机视觉的运用

计算机视觉的运用范文第1篇

关键词:动态场景;自适应预测;多特征融合;计算机视觉;运动目标

接受信息的关键手段之一就是视觉系统,随着科学技术水平的不断发展,以及计算机和信号处理理论的诞生,让机器拥有人类视觉功能已经不再是梦。对所采集视频中的运动目标进行跟踪、检测,并对其目标行为进行分析,就是运动目标分析的内容,运动目标分析是计算机视觉领域关键内容之一,其属于图像理解与图像分析的范畴。而在运动目标分析系统中,跟踪与检测运动目标则为中级和低级处理部分,是分析与理解行为的高等层分析模块的基础。检测与跟踪运动目标技术主要包括了:机器人视觉导航、军事领域、运动图像编码、交通管制、视觉监视等。

1目标检测算法

连续图像序列由视频中提取出,由前景区域与背景区域共同组成了整个画面。前景区域包含了如运动的人体、车辆等动态要素,它是指人们较为感兴趣的区域。而背景区域主要包含例如树木、建筑物等静态要素,它的像素值仅发生微弱变化或者不产生变化。在连续图像序列中,采用一系列算法分隔开背景区域和前景区域,将运动目标信息有效提取,则为运动目标检测。以静态场景为基础的运动目标检测算法包括了光流法、背景差分法、帧间查分法等,文章主要针对背景差分法进行介绍。

背景差分法通常适用于静态场景,其是将背景图像与当前帧图像进行差分,运动目标依靠阀值化进行检测,因为该算法仅能够在背景变化缓慢或者不发生变化的情况下应用,因此就有着一定的局限性。假设当前帧图像为fk(x,y),背景图像B(x,y)可通过一定的方法得出,而这时背景差分图像则为:

(1)

而假设二值化阀值为Th,二值化图像B(x,y)则为:

(2)

运动目标检测结果可通过数学形态学处理获得。

2 背景模型的实时更新

要更新背景图像可采用一阶KALMAN滤波来实现,为了克服气候变化、光照变化等外部环境变化对运动检测产生的影响,采用一阶KALMAN滤波更新背景图像公式如下:

Bk+1(p)=Bk(p)+g(Ik(p)-Bk(p)) (3)

而增益因子则为:g=?琢1(1-Mk(p))+?琢2Mk(p) (4)

公式中?琢1和?琢2是权值系数;M是第k时刻二值化后目标图像中p像素的值;B为背景图像;I为当前帧图像。要想将运动目标从背景序列图像中有效分割出来,就必须要达到?琢2足够小的条件,且?琢1应等于或者大于10?琢2,若?琢1值过大,就会将算法自身的去噪特性丧失,在序列背景图像中也会存储越来越多的运动变化。

3 更新车辆目标模型

核与活动轮廓算法具有效率高、技术复杂度低等特点,它以非参数核概率密度估计理论为基础,在视频运动目标跟踪中广泛应用。彩色图像序列通过摄像机获取,人脸目标模型可以采用RGB颜色空间来进行描述。在跟踪车辆的过程中,噪声、遮挡、光照等干扰或多或少存在,因干扰因素的存在,车辆像素特征也会发生相应的微弱变化。若不对目标模型进行更新,会对跟踪精度产生影响,所以,采用的矩形模板会包括一定背景。而在实施跟踪的过程中,要对车辆目标模型进行更换。如果其过程物遮挡,当BHATTACHARYYA系数满足?籽>Tudm条件时,更新车辆目标模型,更新模型为:

(5)

公式中Tudm是模板更新阀值;qk-1是更新之前的车辆目标模型。通过视频跟踪,在近场景和远场景拍摄到的视频中,多尺度图像空间由各个帧图像构成。例如:将将书本作为跟踪对象,由远及近从书本的正上方拍摄六十帧图像,为了能使矩形框正好能够包含书本,对每帧图像张书本手工划定矩形框,并对框内图像的信息量进行统计。最后,随书本尺度的变化,给出图像信息量变化曲线。

4 计算机视觉原理

计算机视觉是一门研究怎样使机器进行观察的科学,更切确地说,就是指利用电脑和摄影机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,用电脑处理成为传送给仪器检测或更适合人眼观察的图像。计算机视觉研究相关的理论和技术作为一个科学学科,尝试创建能够从图像或者多维数据中获取信息的人工智能系统。这里所指的信息指Shannon定义的,可以用来帮助做一个决定的信息。因为感知可以看作是从感官信号中提取信息,所以计算机视觉也可以看作是研究如何使人工系统从图像或多维数据中感知的科学。

计算机视觉就是由计算机来代替大脑完成处理和解释,用各种成象系统代替视觉器官作为输入敏感手段。使计算机能象人那样通过视觉观察和理解世界,具有自主适应环境的能力就是计算机视觉的最终研究目标,而需要经过长期的努力才能达到这个目标。所以,在实现最终目标以前,通过努力的中期目标是建立一种视觉系统,这个系统能依靠反馈的某种程度的智能和视觉敏感完成一定的任务。例如:计算机视觉的一个重要应用领域就是自主车辆的视觉导航,但要实现自主导航的系统,却还没有条件实现象人那样能识别和理解任何环境。所以,人们通过不懈的努力,研究在高速公路上具有道路跟踪能力,有效避免与前方车辆碰撞的视觉辅助驾驶系统。人类视觉系统是有史以来,人们所知道的功能最强大和完善的视觉系统。这里要指出的一点是在计算机视觉系统中计算机起代替人脑的作用。计算机视觉可以而且应该根据计算机系统的特点来进行视觉信息的处理,但并不等于计算机必须按人类视觉的方法完成视觉信息的处理。可以说,对人类视觉处理机制的研究将给计算机视觉的研究提供指导和启发,所以,用计算机信息处理的方法研究人类视觉的机理,建立人类视觉的计算理论,与此同时也是一个十分重要和让人感兴趣的研究领域。这方面的研究被称为计算视觉。计算视觉可被认为是计算机视觉中的一个研究领域。计算机视觉领域的不完善性与多样性为其突出特点。

5 结束语

对视频中的运动目标进行跟踪、识别、检测,并对目标行为进行研究、分析,这就是基于视觉运动目标分析。以计算机视觉为基础,分析运动目标,包括了目标行为的理解与分析、目标跟踪、运动目标检测、预处理图像等,它是计算机视觉领域重要内容之一。理解与分析运动目标的行为,既是计算机视觉的根本目的之一,也是检测与跟踪运动目标的最终目标。从理论层考虑,理解与分析运动目标的行为可以分为人工智能理论研究与模式识别。简要阐述基于计算机视觉的运动目标分析,而所面临的是对运动目标行为的理解。

参考文献

[1]杨可,刘明军,毛欣,夏维建,刘伟,周旋,吴炜,周凯.基于计算机视觉的电缆终端表面温升分析系统[J].电视技术,2013(7).

[2]叶闯,沈益青,李豪,曹思汗,王柏祥.基于人类视觉特性(HVS)的离散小波变换(DWT)数字水印算法[J].浙江大学学报:理学版,2013(2).

[3]何青海,马本学,瞿端阳,李宏伟,王宝.基于机器视觉棉叶螨自动监测与分级方法研究[J].农机化研究,2013(4).

[4]贾挺猛,苟一,鲍官军,董茂,杨庆华.基于机器视觉的葡萄树枝骨架提取算法研究[J].机电工程,2013(4).

计算机视觉的运用范文第2篇

1视觉跟踪算法

1.1KCF算法

KCF(KernelCorrelationFilter)核相关滤波算法通过目标样本去训练判别分类器,训练判别分类器分析当前跟踪的目标是被跟踪目标周围的背景信息还是被跟踪目标,如图1所示。KCF通过岭回归分类器的学习来完成对目标的跟踪,通过快速傅里叶变化实现算法的加速运算。KCF跟踪算法在训练阶段,利用循环矩阵理论,对视频目标区域进行稠密采样,获取正负样本,提取方向梯度直方图(HOG)特征,通过岭回归分类器分析所以样本进行训练。在检测阶段,以视频前一帧目标位置为中心进行稠密采样,将得到的所有样本输入到岭回归分类器,经过岭回归分类器的分类,得到目标的位置。

1.2TLD算法

TLD(Tracking-Learning-Detection)目标跟踪算法由跟踪模块(Tracking)、检测模块(Detection)、学习模块(Learning)三部分组成,如图2所示。该算法首先由跟踪模块的作用是将被跟踪目标的运动轨道处理成轨道碎片提供给学习模块进行学习,学习模块根据跟踪模块的处理结果进行学习并对检测模块的错误进行分析,通过学习处理后生成训练样本,检测模块在接收到训练样本后对相关参数和目标模型进行跟新并对跟踪模块重新初始化,其中跟踪模块为中值流跟踪器,学习模块为P-N目标模型学习。

1.3视觉跟踪算法改进

KCF跟踪算法的运行速度方面和在目标环境变化不大的情况下跟踪速度表现优异,但其在被跟踪目标出现遮挡、形变、跟丢后无法找回目标,反观TLD解决了被跟踪目标被遮挡、目标跟丢无法重新找回的情况,因此将两个算法互相融合,取长补短能提高算法的运算速度和追踪效果。融合方法:利用KCF克服TLD的中值流跟踪器的缺点,将KCF替换TLD的中值流跟踪器,能够加快TLD的目标跟踪速度。当被跟踪目标在当前图像帧中消失后,KCF会把盲目地在背景中寻找被跟踪目标,当被跟踪重新出现时,KCF算法依然在背景中寻找被跟踪目标,导致跟踪失败,为了避免这个错误的方法,KCF与TLD融合的算法包含了原TLD学习模块,当判断目标丢失时不再盲目地在背景内寻找目标,当目标重新出现时重新跟踪目标,进一步提高算法的跟踪性能。虽然这两个算法的融合方法很简单,但融合后的算法确实解决了KCF不能跟踪被遮挡的物体以及目标跟踪后不能找回的缺点,而且算法速度上高于原TLD算法,提高了算法的性能和适用性。

2机器人控制系统设计

机器人系统总体框架如图4所示,USB摄像头拍摄到的图像信以视频帧的形式传入到程序中。首先先进行KCF的滤波和特征跟踪,再经由TLD算法的处理运算出目标状态,再通过整合模块把得到被跟踪目标的位置信息转换为云台舵机转动命令发送,通过CH340模块将指令由USB转为TTL电平,机器人下位机通过STM32单片机直接或间接地控制各个模块实现机器人的各个功能。STM32单片机在接收到PS2手柄模块和CH340模块的控制信号后,根据程序存储器对应的指令执行行动,如前进、水弹枪射击等。STM32单片机实时接收各模块的信息,例如编码电机的电机转速,陀螺仪的欧拉角等,根据各模块的信息及时调整机器人的运动状态实现机器人运动底盘的灵活移动。摄像头所拍摄的图像信息并不会直接交给STM32单片机除了,而是先经由上位机NUC通过视觉追踪算法运算过后所得的控制指令发送给单片机接收,单片机接收到通过CH340转换的控制指令后控制舵机云台转动追踪目标。

3机器人目标跟踪算法软件设计

目标跟踪算法软件实现流程图如图5所示。由于该目标跟踪算法的运算结果只返回一个跟踪框,并没有实际的跟踪结果,所以需要获取被跟踪目标所在图像中的坐标,获取包围被跟踪目标的矩形重心后,才能方便实现目标跟踪算法。计算出被跟踪目标的矩形包围框的重心后,先对图像帧区域进行划分,使用渐近式接近目标区域为核心思想,将每一帧的图像划分为许多相同的矩形区域。随后根据KCF+TLD目标跟踪算法运算得出的结果框的重心与图像正中心对比,计算出被跟踪目标与图像正中心坐标的偏移量,再通过舵机控制算法计算出舵机云台的转动量,逐帧接近目标所在位置,达到跟踪效果。

4系统视觉跟踪算法测试

计算机视觉的运用范文第3篇

关键词:计算机视觉系统 工业机器人 探究

中图分类号:TP242 文献标识码:A 文章编号:1007-9416(2015)05-0000-00

计算机视觉系统主要是为了工业机器人更好的工作而研发出来的,是一套装有摄像机视场的自动跟踪与定位的计算机视觉系统。近年来,机器人已经广泛使用于工业生产,但是多数机器人都是通过“示教-再现”的模式工作,在工业机器人工作是都是由操作员进行操作示范再由机器人跟着示范进行工作。由于机器人缺乏对外界事物的识别能力,工作中经常发生偏差或者位移等情况。由于工作环境的恶劣以及各种阻碍,为了提高工业机器人的工作效率、灵活性、适应性等,让机器人更好的识别外部环境并及时调整运作方向,能更好的发挥其作用,在原有的机器人系统中添加了一套计算机视觉系统,利用计算机视觉图像装置的信息,通过图像使机器人进行外部环境的识别处理,采用三维的重建,通过作业中利用三维图像的信息进行计算,采用Motocom32软件和机器人控制柜通讯等设备,对工业机器人进行控制,更好的实现机器人对空间特点的跟踪与定位。

1系统的结构与原理

本文主要针对Motoman UP6工业机器人系统的二次研究,在原有的工业机器人的系统中,增加了一套计算机视觉系统, 使工业机器人更好的识别外界环境的系统。计算机视觉系统主要包括:Panasonic CCD摄像机、Motoman UP6工业机器人系统、工控机、OK C-50图像采集卡等外部设备。工业机器人的整个系统由原有系统与计算机视觉系统组成,在原有的系统中包含了YASNAC-XRC- UP6机器人控制柜、Motoman UP6工业机器人本体、示教编程器、Motocom32系统以及相关的外部设备等[1]。计算机视觉系统的设备主要有Panasonic CCTV摄像机、AVENIR TV镜头、OK系列C-50图像采集卡、工控机、AVENIR TV镜头、Panasonic CCD摄像机、OK系列C-50图像采集卡形成的视频采集系统主要是捕获物体的图像,该功能主要是分三个层次进行图像处理、计算、变换以及通信等功能来实施工控机。利用远程控制来对工业机器人进行Motocom32系统进行通信。

2计算机视觉系统的构建

2.1硬件的组成

CCD摄像头:选用的CCD摄像机采用PAP-VIVC810AOZ型彩色摄像头,如图1。摄像机的像素为P:500(H)x582(V),N:510(H)x 492(V),摄像机的分辨率为420。摄像机的成像器使用1/33"CCD,信噪>48 dB,同时摄像机具有自动背景光补偿、自动增益控制等功能。

图像采集卡:图像采集卡主要采用CCD摄像头配套的MV-200工业图像处理。如图2所示。MV-200图像采集卡的分辨率、图像清晰度具有较高的稳定性,其真彩色实施工业图像采集卡,该图像采集卡的硬件构造、地层函数都具有稳定性,同时在恶例的环境中都可以稳定运行[2]。图像采集卡的图像采集效果非常好,画面效果非常流畅。

MV-200图像采集卡性能特点:其分辨率为768 x 576,具有独特的视频过滤技术,使图像质量的采集、显示更加清晰流畅。主要支持的系统为Win98 /2K/XP,主要用于人工智能、事物识别、监控等多种领域。

工控机:工控机以奔4系列为主。

2.2软件组成

图像匹配软件。

图像处理与获取软件。

定标和定位算法软件,功能分布如图3所示。

3视觉系统的原理及流程图

工业机器人的主要系统包括是由工业机器人本体、相关的外部设备、控制器(供电系统、执行器等)计算机视觉系统主要由三部分组成:图像处理和获取、图像匹配、摄像机的定位等组成。通过借助OpenCV的视觉库进行VC++.NET实行,流程如下图表4所示。

在本视觉系统运行中,需要对摄像机实行定标,建立实际空间点和摄像机的对应点。在定标的过程中,就需要标记基准点,使摄像机在采集图像时可以准确的把这些基准点投放到摄像机的坐标上[3]。同时在采集卡的图像中,对图像进行处理并计算出该基准点图像的坐标,通过定标计算法,从而得出摄像机的参数。

在机器人系统中的反馈,计算机通过C语言的调节图像采集卡进行动态链接来控制函数[4]。同时,对摄像机中的数据、视频信号进行采集,构成数字化的图像资料,采用BMP格式存储进行计算,在计算机上显示活动视频,然后系统对获取的图像进行分析处理,以及对噪声的去除、图像的平滑等进行处理,利用二值化处理对那些灰度阀值的图像进行处理,同时检测计算机获取图像的特征量并计算[5]。在完成图像的处理后,就需要确立图像的匹配特征,对图像进行匹配[6]。如果两个图像不重叠,就需要建立3D数据库进行模型重新选择,再把模型进行计算、投影计算、坐标更换等指令,直到找到与图像相匹配的数据模型,才能真正得到真实有效的图像。重叠时,要获得有效的图像,以工业机器人识别物体为目的,才能建立机器人系统之间的通信。同时,通过三维图像重建,进行机器人空间定位[7]。如下图表5所示。

4结语

综上所述,计算机视觉系统主要是为了工业机器人更好的工作而研发出来的,是一套装有摄像机视场的自动跟踪与定位的计算机视觉系统。通过3D数据模型指定目标,机器人系统利用计算机视觉图像的采集装置来识别外界环境的数据,经过图像的姿态预算、影像的投影计算产生图像,通过图片的合成比较,以此来实现机器人在工作中对物体的识别。利用计算机系统对机器人进行有效的控制,在工业机器人工作中对事物目标的搬运、跟踪、夹持等指令。计算机视觉系统具备清晰的视觉功能,有利于提高工业机器人的灵活性以及适应性。

参考文献

[1]夏群峰,彭勇刚.基于视觉的机器人抓取系统应用研究综述[J].机电工程,2014(06):221-223.

[2]华永明,杨春玉.机器人视觉系统在立体编织自动铺纱过程中的应用研究[J].玻璃纤维,2011(01):189-191.

[3]王培屹.基于多传感器多目标实时跟踪视觉系统在全自主机器人上的应用[J].软件导刊,2011(01):263-264.

[4]谭民,王硕.机器人技术研究进展[J].自动化学报,2013(07):123-125.

[5]鲍官军,荀一,戚利勇,杨庆华,高峰.机器视觉在黄瓜采摘机器人中的应用研究[J].浙江工业大学学报,201(01):93-95.

计算机视觉的运用范文第4篇

1.1自动化程度高

计算机视觉可以实现对农产品的多个外形和内在品质指标进行同时检测分析,可以进行整体识别、增强对目标识别的准确性。

1.2实现无损检测

由于计算机视觉技术对农产品的识别是通过扫描、摄像,而不需要直接接触,可以减少对所检测食品的伤害。

1.3稳定的检测精度

设计的运行程序确定后,计算机视觉技术的识别功能就会具有统一的识别标准,具有稳定的检测精度,避免了人工识别和检测时主观因素所造成的差异。

2计算机视觉技术在食品检测中的应用

20世纪70年代初,学者开始研究计算机视觉技术在食品工业中的应用,近几十年电子技术得到快速发展,计算机视觉技术也越来越成熟。国内外学者在研究计算机视觉技术在食品工业中的应用方面主要集中在该技术对果蔬的外部形态(如形状、重量、外观损伤、色泽等)的识别、内部无损检测等方面。国内有关计算机视觉技术在食品业中的应用研究起始于90年代,比国外发达国家晚20多年,但是发展很快。

2.1计算机视觉技术在果蔬分级中的应用研究

计算机视觉技术在食品检测中的应用研究相当广泛,从外部直径、成熟度的检测到内部腐烂程度的检测都有研究。韩伟等[4]采用分割水果的拍摄图像和新的计算机算法计算水果的半径,进而得出果蔬的最大直径。研究表明,该算法不仅降低了计算量而且提高了计算精度,此方法用于水果分级的误差不超过2mm,高于国际水果分级标准所规定的5mm分类标准差,可在工业生产中很好应用。李庆中[5]也利用图像的缺陷分割算法研究了计算机视觉技术在苹果检测与分级中的应用,结果表明此算法能快速、有效地分割出苹果的表面缺陷。孙洪胜等[6]以苹果色泽特征比率的变化规律为理论基础,结合模糊聚类知识利用计算机视觉技术来检测苹果缺陷域,检测不仅快速而且结果精确。刘禾等[7]通过研究认为苹果的表面缺陷可以利用计算机视觉技术进行检测,计算机视觉技术还可以将苹果按照检测结果进行分级,把检测过的苹果分成裂果、刺伤果、碰伤果和虫伤果等类别。梨的果梗是否存在是梨类分级的重要特征之一,应义斌等[8]通过计算机视觉技术、图象处理技术、傅立叶描述子的方法来描述和识别果形以及有无果柄,其识别率达到90%。杨秀坤等[9]综合运用计算机视觉技术、遗传算法、多层前馈神经网络系统,实现了具有精确度高、灵活性强和速度快等优点的苹果成熟度自动判别。陈育彦等[10]采用半导体激光技术、计算机视觉技术和图像分析技术相结合的方法检测苹果表面的机械损伤和果实内部的腐烂情况,初步验证了计算机视觉技术检测苹果表面的损伤和内部腐烂是可行的。冯斌等[11]通过计算机视觉技术对水果图像的边缘进行检测,然后确定水果的大小用以水果分级。试验表明,该方法比传统的检测方法速度快、准确率高,适用于计算机视觉的实时检测。朱伟[12]在模糊颜色的基础上,分析西红柿损伤部分和完好部分模糊颜色的差别,用分割方法对西红柿的缺陷进行分割,结果显示准确率高达96%。曹乐平等[13]人研究了温州蜜柑的果皮颜色与果实可滴定酸含量以及糖分含量之间的相关性,然而根据相关性,样品检测的正确识别率分别只有约74%和67%。刘刚等[14]从垂直和水平两个方向获取苹果的图像,并通过计算机自动分析图像数据,对苹果的外径、体积、以及圆形度等参数进行处理,与人工检测相比,计算机视觉技术具有检测效率高,检测标准统一性好等优点。Blasco.J[15]通过计算机视觉技术分析柑橘果皮的缺陷,进而对其在线分级,正确率约为95%。赵广华等[16]人综合计算机视觉识别系统、输送转换系统、输送翻转系统、差速匀果系统和分选系统,研制出一款适于实时监测、品质动态的智能分级系统,能够很好地实现苹果分级。王江枫等[17]建立了芒果重量与摄影图像的相互关系,应用计算机视觉技术检测桂香芒果和紫花芒果的重量和果面损伤,按重量分级其准确率均为92%,按果面损伤分级的准确率分别为76%和80%。

2.2计算机视觉技术在禽蛋检测中的应用研究

禽蛋企业在生产过程中,产品的分级、品质检测主要采用人工方法,不仅需要大量的物力人力,而且存在劳动强度大、人为误差大、工作效率低等缺点,计算机视觉技术可以很好的解决这类产品工业生产中存在的困扰。欧阳静怡等[18]利用计算机视觉技术来检测鸡蛋蛋壳裂纹,利用摄像机获取鸡蛋图像后,采用fisher、同态滤波和BET算法等优化后的图像处理技术,获得裂纹形状并判断,试验结果表明,计算机视觉技术对鸡蛋蛋壳裂纹的检测准确率高达98%。汪俊德等[19]以计算机视觉技术为基础,设计出一套双黄鸡蛋检测系统。该系统获取蛋黄指数、蛋黄特征和蛋形尺寸等特征,和设计的数学模型对比来实现双黄鸡蛋的检测和识别,检测准确率高达95%。郑丽敏等[20]人通过高分辨率的数字摄像头获取鸡蛋图像,根据图像特征建立数学模型来预测鸡蛋的新鲜度和贮藏期,结果表明,计算机视觉技术对鸡蛋的新鲜度、贮藏期进行预测的结果准确率为94%。潘磊庆等[21]通过计算机视觉技术和声学响应信息技术相结合的方法检测裂纹鸡蛋,其检测准确率达到98%。MertensK等[22]人基于计算机视觉技术研发了鸡蛋的分级检测系统,该系统识别带污渍鸡蛋的正确率高达99%。

2.3计算机视觉技术在检测食品中微生物含量的应用研究

计算机技术和图像处理技术在综合学科中的应用得到快速发展,在微生物快速检测中的应用也越来越多,主要是针对微生物微菌落的处理。食品工业中计算机视觉技术在微生物检测方面的研究和应用以研究单个细胞为主,并在个体细胞的研究上取得了一定的进展。殷涌光等[23]以颜色特征分辨技术为基础,设计了一套应用计算机视觉技术快速定量检测食品中大肠杆菌的系统,该系统检测结果与传统方法的检测结果具有很好的相关性,但与传统方法相比,可以节省5d时间,检测时间在18h以内,并且能够有效提高产品品质。Lawless等[24]人等时间段测定培养基上的细胞密度,然后通过计算机技术建立时间和细胞密度之间的动态关联,利用该关联可以预测和自动检测微生物的生长情况,如通过计算机控制自动定量采集检测对象,然后分析菌落的边缘形态,根据菌落的边缘形态计算机可以显示被检测菌落的具置,并且根据动态关联计算机视觉系统可以同时处理多个不同的样品。郭培源等[25]人对计算机视觉技术用于猪肉的分级进行了研究,结果显示计算机视觉技术在识别猪肉表面微生物数量上与国标方法检测的结果显著相关,该技术可以有效地计算微生物的数量。Bayraktar.B等[26]人采用计算机视觉技术、光散射技术(BARDOT)和模式识别技术相结合的方法来快速检测李斯特菌,在获取该菌菌落中的形态特征有,对图像进行分析处理达到对该菌的分类识别。殷涌光等[27]人综合利用计算机视觉、活体染色、人工神经网络、图像处理等技术,用分辨率为520万像素的数字摄像机拍摄细菌内部的染色效果,并结合新的图像处理算法,对细菌形态学的8个特征参数进行检测,检测结果与传统检测结果显著相关(相关系数R=0.9987),和传统检测方法相比该方法具有操作简单、快速、结果准确、适合现场快速检测等特点。鲁静[28]和刘侃[29]利用显微镜和图像采集仪器,获取乳制品的扫描图像,然后微生物的图像特征和微生物数量进行识别,并以此作为衡量乳制品质量是否达标的依据,并对产品进行分级。

2.4计算机视觉技术在其他食品产业中的应用研究

里红杰等[30]通过提取贝类和虾类等海产品的形状、尺寸、纹理、颜色等外形特征,对照数学模型,采用数字图像处理技术、计算机识别技术实现了对贝类和虾类等海产品的无损检测和自动化分类、分级和质量评估,并通过实例详细阐述了该技术的实现方法,证实了此项技术的有效性。计算机视觉技术还可以检验玉米粒形和玉米种子质量、识别玉米品种和玉米田间杂草[31]。晁德起等[32]通过x射线照射获取毛叶枣的透视图像后,运用计算机视觉技术对图像进行分析评估,毛叶枣可食率的评估结果与运用物理方法测得的结果平均误差仅为1.47%,因此得出结论:计算机视觉技术可以应用于毛叶枣的自动分级。GokmenV等[33-34]通过对薯片制作过程中图像像素的变化来研究薯片的褐变率,通过分析特色参数来研究薯片中丙烯酰胺的含量和褐变率的关系,结果显示两项参数相关性为0.989,从而可以应用计算机视觉技术来预测加热食品中丙烯酰胺的含量,该方法可以在加热食品行业中得到广泛应用。韩仲志等[35]人拍摄和扫描11类花生籽粒,每类100颗不同等级的花生籽粒的正反面图像,利用计算机视觉技术对花生内部和外部采集图像,并通过图像对其外在品质和内在品质进行分析,并建立相应的数学模型,该技术在对待检样品进行分级检测时的正确率高达92%。另外,郭培源等[36]人以国家标准为依据,通过数字摄像技术获取猪肉的细菌菌斑面积、脂肪细胞数、颜色特征值以及氨气等品质指标来实现猪肉新鲜程度的分级辨认。

3展望

新技术的研究与应用必然伴随着坎坷,从70年代初计算机视觉技术在食品工业中进行应用开始,就遇到了很多问题。计算机视觉技术在食品工业中的研究及应用主要存在以下几方面的问题。

3.1检测指标有限

计算机视觉技术在检测食品单一指标或者以一个指标作为分级标准进行分级时具有理想效果,但以同一食品的多个指标共同作为分级标准进行检测分级,则分级结果误差较大[37]。例如,Davenel等[38]通过计算机视觉对苹果的大小、重量、外观损伤进行分析,但研究结果显示,系统会把花萼和果梗标记为缺陷,还由于苹果表面碰压伤等缺陷情况复杂,造成分级误差很大,分级正确率只有69%。Nozer[39-40]等以计算机视觉为主要技术手段,获取水果的图像,进而通过分析图像来确定水果的形状、大小、颜色和重量,并进行分级,其正确率仅为85.1%。

3.2兼容性差

计算机视觉技术针对单一种类的果蔬分级检测效果显著,但是,同一套系统和设备很难用于其它种类的果蔬,甚至同一种类不同品种的农产品也很难公用一套计算机视觉设备。Reyerzwiggelaar等[41]利用计算机视觉检查杏和桃的损伤程度,发现其检测桃子的准确率显著高于杏的。Majumdar.S等[42]利用计算机视觉技术区分不同种类的麦粒,小麦、燕麦、大麦的识别正确率有明显差异。

3.3检测性能受环境制约

计算机视觉的运用范文第5篇

【关键词】多自由度;运动控制;伺服电机;闭环控制

并联机器人通过向末梢执行器下达指令,来控制切削刀具的位姿,而缺乏对其工作状态的主动认知,因此,引入双目主动视觉平台对自身状态进行观测,以期提高控制精度。该平台由多自由度运动控制系统和视觉服务系统组成,而多自由度运动控制系统的精度和速度是视觉服务系统的基础。

传统的双目主动视觉机构类似人的头眼系统,通过控制头眼的转动难以实现观测的灵活性和视觉避让,同时受并联机器人多链结构影响,视觉遮挡机率更高。E. Samson等人研制的双目主动视觉灵巧眼ASP(Agile Stereo Pair),视觉遮挡机率较低,却仅能控制双目在直线方向上的移动。赵晓光等人建立的一种立体视觉监控装置(专利号200420077838.5),对安装在相互垂直导轨上的两台摄像机进行控制,基线方向可调,但视角调整灵活性有限。

针对上述问题,基于双目主动视觉监测平台,构建了多自由度运动控制系统。基于主控计算机实现伺服电机、数字云台的并行控制,由伺服驱动器和伺服电机构成闭环控制系统,通过4轴电机控制卡实现对多自由度运动机构中小车和云台位置的调整;采用串口通信协议完成数字云台的联网和通信,实现了双目基线可调,大视角观测的控制。

1.多自由度运动机构描述

多自由度运动机构如图1所示。并联机器人工作在多自由度运动机构的可视区域,安装了圆形导轨的驱动齿圈固定,导轨上配备了两个电机驱动的小车,可绕齿圈做圆周运动,每个小车上装有垂直丝杠,摄像机通过云台固定在垂直丝杠的滑块上,云台可通过俯仰和摆动两个自由度调整摄像机的姿态,垂直丝杠下端的电机通过控制丝杠的转动调整摄像机的高度。运动控制系统主要实现电机驱动的小车和垂直丝杠在两个自由度下的控制,以及数字云台两个自由度的控制。

2.多自由度运动控制系统设计方案

为了满足视觉服务系统对视域监测信息的需求,多自由度运动控制系统应该具有较好的控制稳定性,以及较好的扩展性,选取工控机作为主控计算机,对驱动电机、数字云台和摄像机进行并行控制。考虑到平台齿圈的阻力和运行平稳性,选取交流伺服电机作为小车和丝杠的驱动电机,通过伺服驱动器驱动电机形成闭环交流伺服系统,在工控机配以电机控制卡对伺服驱动系统发送控制信号;数字云台运动力矩较小,选取步进电机作为其控制电机,通过串口连接到工控机;摄像机安装在云台上,需要将拍摄到的图像快速的送入工控机,因此,通过1394接口将摄像机和主控计算机连接。多自由度运动控制系统方案如图2所示。

3.多自由度运动控制方法

多自由度运动机构中,小车驱动电机和垂直丝杠驱动电机的运动决定摄像机的空间位置,云台步进电机的运动决定摄像机的姿态,各运动副之间的并行控制是视觉监测速度的关键。

3.1 交流伺服电机控制

多自由度运动机构中,采用主控计算机+运动控制卡的开放式控制方式实现伺服电机的控制,运动控制卡以插卡形式嵌入主控计算机,主控计算机负责伺服控制系统状态的实时监控和人机交互的管理等工作;运动控制卡完成伺服电机运动控制的所有细节。本文选用和利时公司的SYNTRON6050系列4轴电机运动控制卡,采用研华公司的IPC-610H工控机作为主控计算机,电机运动控制卡插入工控机的PCI插槽中。

3.1.1 电机运动控制卡

电机运动控制卡与主控计算机构成上下位机型的主从式数字控制系统,用于伺服电机的控制。以DSP芯片作为运动控制卡的核心处理器,完成复杂的运动控制算法、插补算法和进行保护中断的处理,特别是伺服周期内位置控制和速度控制;以FPGA芯片作为协处理器实现鉴相的处理与编码信号的采集,对模拟量和脉冲进行输出和配置,把DSP处理过的控制数据经过内部转换送到外部设备,并管理各种外部设备和DSP的接口配置,FPGA在多轴控制中能进行真正的并行处理。

DSP通过外设接口XINTF与FPGA进行通信,FPGA通过DSP的外部中断XINT1和XINT2来触发DSP接受运动控制命令和参数,DSP接受到命令后,根据工作协议调节自身进入定义的工作状态。同时,DSP在遇到错误或工作完成情况时,自动给FPGA发送反馈消息。FPGA负责接受PCI局部总线的命令和参数,对其处理后发送给DSP,下达运动控制指令,同时反馈信息给PCI局部总线,并且控制系统D/A模块, I/O模块,键盘输入等。

3.1.2 交流伺服系统的硬件连接

选用SYNTRON公司的GS0020B作为伺服驱动器,集成美国TI公司的DSP核心控制芯片,采用先进的全数字电机控制算法,完全以软件方式实现了电流环、速度环、位置环的闭环伺服控制,具备良好的鲁棒性和自适应能力,适用于需要快速响应的定位控制与精密转速控制的应用系统。电机运动控制卡、交流伺服驱动器和交流伺服电机的硬件连接电路如图3所示。

3.2 云台控制器接口与通信

主控计算机通过云台控制器实现云台俯仰和水平摆动方向的控制,以实现摄像机姿态的调整。主控计算机采用异步通信接口RS485与云台控制器通信。由于运动控制系统需要主控计算机并行控制两个云台,本系统将云台控制器和主控计算机组成控制网络,通过设置ID的方式对云台控制器进行区分,实现对网络中云台的控制,云台控制器和主机联网的方法如下。

(1)确定云台控制器在主控计算机中的物理位置:连接控制器和主机的扩展卡相对CPU的位置;

(2)设定云台控制器的ID号,同一网络中ID号唯一:根据物理位置和CPU的距离确定ID号;

(3)将标识为ID0的云台控制器连接到主机的RS485接口,所有云台通过RS485 接口连接到其相应的控制器。

PC机与云台的一次完整通信由PC发送指令和被控设备反馈两部分构成。指令数据流的发送和数据流的反馈之间需要有10ms 的延时,用来稳定RS485总线上的信号,如果回送数据是约定好的正确代码,则通讯成功;但反馈数据流必须在200ms 以内反馈数据,如果没有反馈,则主机认为当前的总线上没有设备号为发送指令数据流中的ID 编码的设备。

4.总结

双目主动视觉平台多自由度运动控制系统基于主控计算机实现了伺服电机、数字云台的并行控制。由伺服驱动器和伺服电机构成了闭环控制系统,通过4轴电机控制卡实现对多自由度运动机构中小车和云台位置的调整;采用串口通信协议完成数字云台的联网和通信,实现了摄像机位姿的调整。运动控制系统实现了双目运动的灵活性,基线可调,满足大视角观测的需要,当发生视觉遮挡时,可以通过调整摄像机的位置和姿态进行避让。该系统硬件结构简单,扩展方便,视觉监测速度较快,具有较高的运动稳定性和运动精度。

参考文献

[1]王,孔令富,王月明等.主动视觉监测平台机械误差矫正方法研究[J].中国机械工程,2008,19(13):1523-1527.

[2]孔令富,景荣,赵立强.圆轨双链主动视觉机构标定体系的设计[J].计算机工程与设计,2010,31(8):1882-1885.

[3]E.Samson,D.Laurendeau, M. Parizeau1 etc.The Agile Stereo Pair for Active Vision.Machine Vision and Applications, Published by Springer-Verlag,2006,17(1):32-50.

[4]张旭东,夏加宽,王成元.基于PC机的开放式交流伺服系统的研究[J].控制工程,2007,14(1):96-98.

[5]周涛,朱景成.机载光电跟踪平台伺服系统自抗扰控制[J].光电工程,2011,38(4):31-36.

[6]张广志,李林,孔令富.交流伺服系统在视觉监测平台中的应用[J].电子技术,2009,3:34-36.

本文荣获河南省重点科技攻关项目资助(项目编号:122102210065)。

作者简介: