首页 oencv中文参考手册精编p

oencv中文参考手册精编p

举报
开通vip

oencv中文参考手册精编pCv图像处理Wikipedia,自由的百科全书注意:本章描述图像处理和分析的一些函数。大多数函数都是针对两维象素数组的,这里,我们称这些数组为“图像”,但是它们不一定非得是IplImage结构,也可以是CvMat或者CvMatND结构。梯度、边缘和角点Sobel使用扩展Sobel算子计算一阶、二阶、三阶或混合图像差分voidcvSobel(constCvArr*src,CvArr*dst,intxorder,intyorder,intaperture_size=3);src输入图像.dst输...

oencv中文参考手册精编p
Cv图像处理Wikipedia,自由的百科全书注意:本章描述图像处理和 分析 定性数据统计分析pdf销售业绩分析模板建筑结构震害分析销售进度分析表京东商城竞争战略分析 的一些函数。大多数函数都是针对两维象素数组的,这里,我们称这些数组为“图像”,但是它们不一定非得是IplImage结构,也可以是CvMat或者CvMatND结构。梯度、边缘和角点Sobel使用扩展Sobel算子计算一阶、二阶、三阶或混合图像差分voidcvSobel(constCvArr*src,CvArr*dst,intxorder,intyorder,intaperture_size=3);src输入图像.dst输出图像.xorderx方向上的差分阶数yordery方向上的差分阶数aperture_size扩展Sobel核的大小,必须是1,3,5或7。除了尺寸为1,其它情况下,aperture_size×aperture_size可分离内核将用来计算差分。对aperture_size=1的情况,使用3x1或1x3内核(不进行高斯平滑操作)。这里有一个特殊变量CV_SCHARR(=-1),对应3x3Scharr滤波器,可以给出比3x3Sobel滤波更精确的结果。Scharr滤波器系数是:对x-方向以及转置矩阵对y-方向。函数cvSobel通过对图像用相应的内核进行卷积操作来计算图像差分:由于Sobel算子结合了Gaussian平滑和微分,所以,其结果或多或少对噪声有一定的鲁棒性。通常情况,函数调用采用如下参数(xorder=1,yorder=0,aperture_size=3)或(xorder=0,yorder=1,aperture_size=3)来计算一阶x-或y-方向的图像差分。第一种情况对应:第二种对应:或者核的选则依赖于图像原点的定义(origin来自IplImage结构的定义)。由于该函数不进行图像尺度变换,所以和输入图像(数组)相比,输出图像(数组)的元素通常具有更大的绝对数值(译者注:即象素的深度)。为防止溢出,当输入图像是8位的,要求输出图像是16位的。当然可以用函数cvConvertScale或cvConvertScaleAbs转换为8位的。除了8-比特图像,函数也接受32-位浮点数图像。所有输入和输出图像都必须是单通道的,并且具有相同的图像尺寸或者ROI尺寸。Laplace计算图像的Laplacian变换voidcvLaplace(constCvArr*src,CvArr*dst,intaperture_size=3);src输入图像.dst输出图像.aperture_size核大小(与cvSobel中定义一样).函数cvLaplace计算输入图像的Laplacian变换, 方法 快递客服问题件处理详细方法山木方法pdf计算方法pdf华与华方法下载八字理论方法下载 是先用sobel算子计算二阶x-和y-差分,再求和:dst(x,y)=d2src/dx2+d2src/dy2对aperture_size=1则给出最快计算结果,相当于对图像采用如下内核做卷积:类似于cvSobel函数,该函数也不作图像的尺度变换,所支持的输入、输出图像类型的组合和cvSobel一致。Canny采用Canny算法做边缘检测voidcvCanny(constCvArr*image,CvArr*edges,doublethreshold1,doublethreshold2,intaperture_size=3);image输入图像.edges输出的边缘图像threshold1第一个阈值threshold2第二个阈值aperture_sizeSobel算子内核大小(见cvSobel).函数cvCanny采用CANNY算法发现输入图像的边缘而且在输出图像中标识这些边缘。threshold1和threshold2当中的小阈值用来控制边缘连接,大的阈值用来控制强边缘的初始分割。PreCornerDetect计算用于角点检测的特征图,voidcvPreCornerDetect(constCvArr*image,CvArr*corners,intaperture_size=3);image输入图像.corners保存候选角点的特征图aperture_sizeSobel算子的核大小(见cvSobel).函数cvPreCornerDetect计算函数其中 关于同志近三年现实表现材料材料类招标技术评分表图表与交易pdf视力表打印pdf用图表说话 pdf 示一阶图像差分,表示二阶图像差分。角点被认为是函数的局部最大值://假设图像格式为浮点数IplImage*corners=cvCloneImage(image);IplImage*dilated_corners=cvCloneImage(image);IplImage*corner_mask=cvCreateImage(cvGetSize(image),8,1);cvPreCornerDetect(image,corners,3);cvDilate(corners,dilated_corners,0,1);cvSubS(corners,dilated_corners,corners);cvCmpS(corners,0,corner_mask,CV_CMP_GE);cvReleaseImage(&corners);cvReleaseImage(&dilated_corners);CornerEigenValsAndVecs计算图像块的特征值和特征向量,用于角点检测voidcvCornerEigenValsAndVecs(constCvArr*image,CvArr*eigenvv,intblock_size,intaperture_size=3);image输入图像.eigenvv保存结果的数组。必须比输入图像宽6倍。block_size邻域大小(见讨论).aperture_sizeSobel算子的核尺寸(见cvSobel).对每个象素,函数cvCornerEigenValsAndVecs考虑block_size×block_size大小的邻域S(p),然后在邻域上计算图像差分的相关矩阵:然后它计算矩阵的特征值和特征向量,并且按如下方式(λ1,λ2,x1,y1,x2,y2)存储这些值到输出图像中,其中λ1,λ2-M的特征值,没有排序(x1,y1)-特征向量,对λ1(x2,y2)-特征向量,对λ2CornerMinEigenVal计算梯度矩阵的最小特征值,用于角点检测voidcvCornerMinEigenVal(constCvArr*image,CvArr*eigenval,intblock_size,intaperture_size=3);image输入图像.eigenval保存最小特征值的图像.与输入图像大小一致block_size邻域大小(见讨论cvCornerEigenValsAndVecs).aperture_sizeSobel算子的核尺寸(见cvSobel).当输入图像是浮点数格式时,该参数表示用来计算差分固定的浮点滤波器的个数.函数cvCornerMinEigenVal与cvCornerEigenValsAndVecs类似,但是它仅仅计算和存储每个象素点差分相关矩阵的最小特征值,即前一个函数的min(λ1,λ2)CornerHarris哈里斯(Harris)角点检测voidcvCornerHarris(constCvArr*image,CvArr*harris_responce,intblock_size,intaperture_size=3,doublek=0.04);image输入图像。harris_responce存储哈里斯(Harris)检测responces的图像。与输入图像等大。block_size邻域大小(见关于cvCornerEigenValsAndVecs的讨论)。aperture_size扩展Sobel核的大小(见cvSobel)。格式.当输入图像是浮点数格式时,该参数表示用来计算差分固定的浮点滤波器的个数。kHarrisdetectorfreeparameter.Seetheformulabelow.harris检测器的自由参数。请看如下公式。ThefunctioncvCornerHarrisrunstheHarrisedgedetectoronimage.SimilarlytocvCornerMinEigenValandcvCornerEigenValsAndVecs,foreachpixelitcalculates2x2gradientcovariationmatrixMoverblock_size×block_sizeneighborhood.Then,itstoresdet(M)-k*trace(M)2tothedestinationimage.Cornersintheimagecanbefoundaslocalmaximaofthedestinationimage.函数cvCornerHarris对输入图像进行Harris边界检测。类似于cvCornerMinEigenVal和cvCornerEigenValsAndVecs。对每个像素,在block_size*block_size大小的邻域上,计算其2*2梯度共变矩阵(或相关异变矩阵)M。然后,将det(M)-k*trace(M)2(此公式有待考证,最后的“2”是否应为平方符号?)保存到输出图像中。输入图像中的角点在输出图像中由局部最大值表示。FindCornerSubPix精确角点位置voidcvFindCornerSubPix(constCvArr*image,CvPoint2D32f*corners,intcount,CvSizewin,CvSizezero_zone,CvTermCriteriacriteria);image输入图像.corners输入角点的初始坐标,也存储精确的输出坐标count角点数目win搜索窗口的一半尺寸。如果win=(5,5)那么使用5*2+1×5*2+1=11×11大小的搜索窗口zero_zone死区的一半尺寸,死区为不对搜索区的中央位置做求和运算的区域。它是用来避免自相关矩阵出现的某些可能的奇异性。当值为(-1,-1)表示没有死区。criteria求角点的迭代过程的终止条件。即角点位置的确定,要么迭代数大于某个设定值,或者是精确度达到某个设定值。criteria可以是最大迭代数目,或者是设定的精确度,也可以是它们的组合。函数cvFindCornerSubPix通过迭代来发现具有子象素精度的角点位置,或如图所示的放射鞍点(radialsaddlepoints)。子象素级角点定位的实现是基于对向量正交性的观测而实现的,即从中央点q到其邻域点p的向量和p点处的图像梯度正交(服从图像和测量噪声)。考虑以下的表达式:εi=DIpiT?(q-pi)其中,DIpi表示在q的一个邻域点pi处的图像梯度,q的值通过最小化εi得到。通过将εi设为0,可以建立系统方程如下:sumi(DIpi?DIpiT)?q-sumi(DIpi?DIpiT?pi)=0其中q的邻域(搜索窗)中的梯度被累加。调用第一个梯度参数G和第二个梯度参数b,得到:q=G-1?b该算法将搜索窗的中心设为新的中心q,然后迭代,直到找到低于某个阈值点的中心位置。GoodFeaturesToTrack确定图像的强角点voidcvGoodFeaturesToTrack(constCvArr*image,CvArr*eig_image,CvArr*temp_image,CvPoint2D32f*corners,int*corner_count,doublequality_level,doublemin_distance,constCvArr*mask=NULL);image输入图像,8-位或浮点32-比特,单通道eig_image临时浮点32-位图像,尺寸与输入图像一致temp_image另外一个临时图像,格式与尺寸与eig_image一致corners输出参数,检测到的角点corner_count输出参数,检测到的角点数目quality_level最大最小特征值的乘法因子。定义可接受图像角点的最小质量因子。min_distance限制因子。得到的角点的最小距离。使用Euclidian距离maskROI:感兴趣区域。函数在ROI中计算角点,如果mask为NULL,则选择整个图像。必须为单通道的灰度图,大小与输入图像相同。mask对应的点不为0,表示计算该点。函数cvGoodFeaturesToTrack在图像中寻找具有大特征值的角点。该函数,首先用cvCornerMinEigenVal计算输入图像的每一个象素点的最小特征值,并将结果存储到变量eig_image中。然后进行非最大值抑制(仅保留3x3邻域中的局部最大值)。下一步将最小特征值小于quality_level?max(eig_image(x,y))排除掉。最后,函数确保所有发现的角点之间具有足够的距离,(最强的角点第一个保留,然后检查新的角点与已有角点之间的距离大于min_distance)。采样、插值和几何变换InitLineIterator初始化线段迭代器intcvInitLineIterator(constCvArr*image,CvPointpt1,CvPointpt2,CvLineIterator*line_iterator,intconnectivity=8);image带采线段的输入图像.pt1线段起始点pt2线段结束点line_iterator指向线段迭代器状态结构的指针connectivity被扫描线段的连通数,4或8.函数cvInitLineIterator初始化线段迭代器,并返回两点之间的象素点数目。两个点必须在图像内。当迭代器初始化后,连接两点的光栅线上所有点,都可以连续通过调用CV_NEXT_LINE_POINT来得到。线段上的点是使用4-连通或8-连通利用Bresenham算法逐点计算的。例子:使用线段迭代器计算彩色线上象素值的和CvScalarsum_line_pixels(IplImage*image,CvPointpt1,CvPointpt2){CvLineIteratoriterator;intblue_sum=0,green_sum=0,red_sum=0;intcount=cvInitLineIterator(image,pt1,pt2,&iterator,8);for(inti=0;i<count;i++){blue_sum+=iterator.ptr[0];green_sum+=iterator.ptr[1];red_sum+=iterator.ptr[2];CV_NEXT_LINE_POINT(iterator);/*printthepixelcoordinates:demonstrateshowtocalculatethecoordinates*/{intoffset,x,y;/*assumethatROIisnotset,otherwiseneedtotakeitintoaccount.*/offset=iterator.ptr-(uchar*)(image->imageData);y=offset/image->widthStep;x=(offset-y*image->widthStep)/(3*sizeof(uchar)/*sizeofpixel*/);printf("(%d,%d)\n",x,y);}}returncvScalar(blue_sum,green_sum,red_sum);}SampleLine将图像上某一光栅线上的像素数据读入缓冲区intcvSampleLine(constCvArr*image,CvPointpt1,CvPointpt2,void*buffer,intconnectivity=8);image输入图像pt1光栅线段的起点pt2光栅线段的终点buffer存储线段点的缓存区,必须有足够大小来存储点max(|pt2.x-pt1.x|+1,|pt2.y-pt1.y|+1):8-连通情况下,或者|pt2.x-pt1.x|+|pt2.y-pt1.y|+1:4-连通情况下.connectivity线段的连通方式,4or8.函数cvSampleLine实现了线段迭代器的一个特殊应用。它读取由pt1和pt2两点确定的线段上的所有图像点,包括终点,并存储到缓存中。GetRectSubPix从图像中提取象素矩形,使用子象素精度voidcvGetRectSubPix(constCvArr*src,CvArr*dst,CvPoint2D32fcenter);src输入图像.dst提取的矩形.center提取的象素矩形的中心,浮点数坐标。中心必须位于图像内部.函数cvGetRectSubPix从图像src中提取矩形:dst(x,y)=src(x+center.x-(width(dst)-1)*0.5,y+center.y-(height(dst)-1)*0.5)其中非整数象素点坐标采用双线性插值提取。对多通道图像,每个通道独立单独完成提取。尽管函数要求矩形的中心一定要在输入图像之中,但是有可能出现矩形的一部分超出图像边界的情况,这时,该函数复制边界的模识(hunnish:即用于矩形相交的图像边界线段的象素来代替矩形超越部分的象素)。GetQuadrangleSubPix提取象素四边形,使用子象素精度voidcvGetQuadrangleSubPix(constCvArr*src,CvArr*dst,constCvMat*map_matrix);src输入图像.dst提取的四边形.map_matrix3×2变换矩阵[A|b](见讨论).函数cvGetQuadrangleSubPix以子象素精度从图像src中提取四边形,使用子象素精度,并且将结果存储于dst,计算公式是:dst(x+width(dst)/2,y+height(dst)/2)=src(A11x+A12y+b1,A21x+A22y+b2)其中A和b均来自映射矩阵(译者注:A,b为几何形变参数),映射矩阵为:其中在非整数坐标的象素点值通过双线性变换得到。当函数需要图像边界外的像素点时,使用重复边界模式(replicationbordermode)恢复出所需的值。多通道图像的每一个通道都单独计算。例子:使用cvGetQuadrangleSubPix进行图像旋转#include"cv.h"#include"highgui.h"#include"math.h"intmain(intargc,char**argv){IplImage*src;/*thefirstcommandlineparametermustbeimagefilename*/if(argc==2&&(src=cvLoadImage(argv[1],-1))!=0){IplImage*dst=cvCloneImage(src);intdelta=1;intangle=0;cvNamedWindow("src",1);cvShowImage("src",src);for(;;){floatm[6];doublefactor=(cos(angle*CV_PI/180.)+1.1)*3;CvMatM=cvMat(2,3,CV_32F,m);intw=src->width;inth=src->height;m[0]=(float)(factor*cos(-angle*2*CV_PI/180.));m[1]=(float)(factor*sin(-angle*2*CV_PI/180.));m[2]=w*0.5f;m[3]=-m[1];m[4]=m[0];m[5]=h*0.5f;cvGetQuadrangleSubPix(src,dst,&M,1,cvScalarAll(0));cvNamedWindow("dst",1);cvShowImage("dst",dst);if(cvWaitKey(5)==27)break;angle=(angle+delta)%360;}}return0;}Resize图像大小变换voidcvResize(constCvArr*src,CvArr*dst,intinterpolation=CV_INTER_LINEAR);src输入图像.dst输出图像.interpolation插值方法:CV_INTER_NN-最近邻插值,CV_INTER_LINEAR-双线性插值(缺省使用)CV_INTER_AREA-使用象素关系重采样。当图像缩小时候,该方法可以避免波纹出现。当图像放大时,类似于CV_INTER_NN方法..CV_INTER_CUBIC-立方插值.函数cvResize将图像src改变尺寸得到与dst同样大小。若设定ROI,函数将按常规支持ROI.WarpAffine对图像做仿射变换voidcvWarpAffine(constCvArr*src,CvArr*dst,constCvMat*map_matrix,intflags=CV_INTER_LINEAR+CV_WARP_FILL_OUTLIERS,CvScalarfillval=cvScalarAll(0));src输入图像.dst输出图像.map_matrix2×3变换矩阵flags插值方法和以下开关选项的组合:CV_WARP_FILL_OUTLIERS-填充所有输出图像的象素。如果部分象素落在输入图像的边界外,那么它们的值设定为fillval.CV_WARP_INVERSE_MAP-指定map_matrix是输出图像到输入图像的反变换,因此可以直接用来做象素插值。否则,函数从map_matrix得到反变换。fillval用来填充边界外面的值函数cvWarpAffine利用下面指定的矩阵变换输入图像:如果没有指定CV_WARP_INVERSE_MAP,,否则,函数与cvGetQuadrangleSubPix类似,但是不完全相同。cvWarpAffine要求输入和输出图像具有同样的数据类型,有更大的资源开销(因此对小图像不太合适)而且输出图像的部分可以保留不变。而cvGetQuadrangleSubPix可以精确地从8位图像中提取四边形到浮点数缓存区中,具有比较小的系统开销,而且总是全部改变输出图像的 内容 财务内部控制制度的内容财务内部控制制度的内容人员招聘与配置的内容项目成本控制的内容消防安全演练内容 。要变换稀疏矩阵,使用cxcore中的函数cvTransform。GetAffineTransform由三对点计算仿射变换CvMat*cvGetAffineTransform(constCvPoint2D32f*src,constCvPoint2D32f*dst,CvMat*map_matrix);src输入图像的三角形顶点坐标。dst输出图像的相应的三角形顶点坐标。map_matrix指向2×3输出矩阵的指针。函数cvGetAffineTransform计算满足以下关系的仿射变换矩阵:这里,dst(i)=(x'i,y'i),src(i)=(xi,yi),i=0..2.2DRotationMatrix计算二维旋转的仿射变换矩阵CvMat*cv2DRotationMatrix(CvPoint2D32fcenter,doubleangle,doublescale,CvMat*map_matrix);center输入图像的旋转中心坐标angle旋转角度(度)。正值表示逆时针旋转(坐标原点假设在左上角).scale各项同性的尺度因子map_matrix输出2×3矩阵的指针函数cv2DRotationMatrix计算矩阵:[αβ|(1-α)*center.x-β*center.y][-βα|β*center.x+(1-α)*center.y]whereα=scale*cos(angle),β=scale*sin(angle)该变换并不改变原始旋转中心点的坐标,如果这不是操作目的,则可以通过调整平移量改变其坐标(译者注:通过简单的推导可知,仿射变换的实现是首先将旋转中心置为坐标原点,再进行旋转和尺度变换,最后重新将坐标原点设定为输入图像的左上角,这里的平移量是center.x,center.y).WarpPerspective对图像进行透视变换voidcvWarpPerspective(constCvArr*src,CvArr*dst,constCvMat*map_matrix,intflags=CV_INTER_LINEAR+CV_WARP_FILL_OUTLIERS,CvScalarfillval=cvScalarAll(0));src输入图像.dst输出图像.map_matrix3×3变换矩阵flags插值方法和以下开关选项的组合:CV_WARP_FILL_OUTLIERS-填充所有缩小图像的象素。如果部分象素落在输入图像的边界外,那么它们的值设定为fillval.CV_WARP_INVERSE_MAP-指定matrix是输出图像到输入图像的反变换,因此可以直接用来做象素插值。否则,函数从map_matrix得到反变换。fillval用来填充边界外面的值函数cvWarpPerspective利用下面指定矩阵变换输入图像:如果没有指定CV_WARP_INVERSE_MAP,,否则,要变换稀疏矩阵,使用cxcore中的函数cvTransform。WarpPerspectiveQMatrix用4个对应点计算透视变换矩阵CvMat*cvWarpPerspectiveQMatrix(constCvPoint2D32f*src,constCvPoint2D32f*dst,CvMat*map_matrix);src输入图像的四边形的4个点坐标dst输出图像的对应四边形的4个点坐标map_matrix输出的3×3矩阵函数cvWarpPerspectiveQMatrix计算透视变换矩阵,使得:(tix'i,tiy'i,ti)T=matrix?(xi,yi,1)T其中dst(i)=(x'i,y'i),src(i)=(xi,yi),i=0..3.GetPerspectiveTransform由四对点计算透射变换CvMat*cvGetPerspectiveTransform(constCvPoint2D32f*src,constCvPoint2D32f*dst,CvMat*map_matrix);#definecvWarpPerspectiveQMatrixcvGetPerspectiveTransformsrc输入图像的四边形顶点坐标。dst输出图像的相应的四边形顶点坐标。map_matrix指向3×3输出矩阵的指针。函数cvGetPerspectiveTransform计算满足以下关系的透射变换矩阵:这里,dst(i)=(x'i,y'i),src(i)=(xi,yi),i=0..3.Remap对图像进行普通几何变换voidcvRemap(constCvArr*src,CvArr*dst,constCvArr*mapx,constCvArr*mapy,intflags=CV_INTER_LINEAR+CV_WARP_FILL_OUTLIERS,CvScalarfillval=cvScalarAll(0));src输入图像.dst输出图像.mapxx坐标的映射(32fC1image).mapyy坐标的映射(32fC1image).flags插值方法和以下开关选项的组合:CV_WARP_FILL_OUTLIERS-填充边界外的像素.如果输出图像的部分象素落在变换后的边界外,那么它们的值设定为fillval。fillval用来填充边界外面的值.函数cvRemap利用下面指定的矩阵变换输入图像:dst(x,y)<-src(mapx(x,y),mapy(x,y))与其它几何变换类似,可以使用一些插值方法(由用户指定,译者注:同cvResize)来计算非整数坐标的像素值。LogPolar把图像映射到极指数空间voidcvLogPolar(constCvArr*src,CvArr*dst,CvPoint2D32fcenter,doubleM,intflags=CV_INTER_LINEAR+CV_WARP_FILL_OUTLIERS);src输入图像。dst输出图像。center变换的中心,输出图像在这里最精确。M幅度的尺度参数,见下面公式。flags插值方法和以下选择标志的结合CV_WARP_FILL_OUTLIERS-填充输出图像所有像素,如果这些点有和外点对应的,则置零。CV_WARP_INVERSE_MAP-表示矩阵由输出图像到输入图像的逆变换,并且因此可以直接用于像素插值。否则,函数从map_matrix中寻找逆变换。fillval用于填充外点的值。函数cvLogPolar用以下变换变换输入图像:正变换(CV_WARP_INVERSE_MAP未置位):dst(phi,rho)<-src(x,y)逆变换(CV_WARP_INVERSE_MAP置位):dst(x,y)<-src(phi,rho),这里,rho=M*log(sqrt(x2+y2))phi=atan(y/x)此函数模仿人类视网膜中央凹视力,并且对于目标跟踪等可用于快速尺度和旋转变换不变模板匹配。Example.Log-polartransformation.#include<cv.h>#include<highgui.h>intmain(intargc,char**argv){IplImage*src;if(argc==2&&(src=cvLoadImage(argv[1],1)?!=0){IplImage*dst=cvCreateImage(cvSize(256,256),8,3);IplImage*src2=cvCreateImage(cvGetSize(src),8,3);cvLogPolar(src,dst,cvPoint2D32f(src->width/2,src->height/2),40,CV_INTER_LINEAR+CV_WARP_FILL_OUTLIERS);cvLogPolar(dst,src2,cvPoint2D32f(src->width/2,src->height/2),40,CV_INTER_LINEAR+CV_WARP_FILL_OUTLIERS+CV_WARP_INVERSE_MAP);cvNamedWindow("log-polar",1);cvShowImage("log-polar",dst);cvNamedWindow("inverselog-polar",1);cvShowImage("inverselog-polar",src2);cvWaitKey();}return0;}Andthisiswhattheprogramdisplayswhenopencv/samples/c/fruits.jpgispassedtoit形态学操作CreateStructuringElementEx创建结构元素IplConvKernel*cvCreateStructuringElementEx(intcols,introws,intanchor_x,intanchor_y,intshape,int*values=NULL);cols结构元素的列数目rows结构元素的行数目anchor_x锚点的相对水平偏移量anchor_y锚点的相对垂直偏移量shape结构元素的形状,可以是下列值:CV_SHAPE_RECT,长方形元素;CV_SHAPE_CROSS,交错元素across-shapedelement;CV_SHAPE_ELLIPSE,椭圆元素;CV_SHAPE_CUSTOM,用户自定义元素。这种情况下参数values定义了mask,即象素的那个邻域必须考虑。values指向结构元素的指针,它是一个平面数组,表示对元素矩阵逐行扫描。(非零点表示该点属于结构元)。如果指针为空,则表示平面数组中的所有元素都是非零的,即结构元是一个长方形(该参数仅仅当shape参数是CV_SHAPE_CUSTOM时才予以考虑)。函数cvCreateStructuringElementEx分配和填充结构IplConvKernel,它可作为形态操作中的结构元素。ReleaseStructuringElement删除结构元素voidcvReleaseStructuringElement(IplConvKernel**element);element被删除的结构元素的指针函数cvReleaseStructuringElement释放结构IplConvKernel。如果*element为NULL,则函数不作用。Erode使用任意结构元素腐蚀图像voidcvErode(constCvArr*src,CvArr*dst,IplConvKernel*element=NULL,intiterations=1);src输入图像.dst输出图像.element用于腐蚀的结构元素。若为NULL,则使用3×3长方形的结构元素iterations腐蚀的次数函数cvErode对输入图像使用指定的结构元素进行腐蚀,该结构元素决定每个具有最小值象素点的邻域形状:dst=erode(src,element):dst(x,y)=min((x',y')inelement))src(x+x',y+y')函数可能是本地操作,不需另外开辟存储空间的意思。腐蚀可以重复进行(iterations)次.对彩色图像,每个彩色通道单独处理。Dilate使用任意结构元素膨胀图像voidcvDilate(constCvArr*src,CvArr*dst,IplConvKernel*element=NULL,intiterations=1);src输入图像.dst输出图像.element用于膨胀的结构元素。若为NULL,则使用3×3长方形的结构元素iterations膨胀的次数函数cvDilate对输入图像使用指定的结构元进行膨胀,该结构决定每个具有最小值象素点的邻域形状:dst=dilate(src,element):dst(x,y)=max((x',y')inelement))src(x+x',y+y')函数支持(in-place)模式。膨胀可以重复进行(iterations)次.对彩色图像,每个彩色通道单独处理。MorphologyEx高级形态学变换voidcvMorphologyEx(constCvArr*src,CvArr*dst,CvArr*temp,IplConvKernel*element,intoperation,intiterations=1);src输入图像.dst输出图像.temp临时图像,某些情况下需要element结构元素operation形态操作的类型:CV_MOP_OPEN-开运算CV_MOP_CLOSE-闭运算CV_MOP_GRADIENT-形态梯度CV_MOP_TOPHAT-"顶帽"CV_MOP_BLACKHAT-"黑帽"iterations膨胀和腐蚀次数.函数cvMorphologyEx在膨胀和腐蚀基本操作的基础上,完成一些高级的形态变换:开运算dst=open(src,element)=dilate(erode(src,element),element)闭运算dst=close(src,element)=erode(dilate(src,element),element)形态梯度dst=morph_grad(src,element)=dilate(src,element)-erode(src,element)"顶帽"dst=tophat(src,element)=src-open(src,element)"黑帽"dst=blackhat(src,element)=close(src,element)-src临时图像temp在形态梯度以及对“顶帽”和“黑帽”操作时的in-place模式下需要。滤波器与色彩空间变换Smooth各种方法的图像平滑voidcvSmooth(constCvArr*src,CvArr*dst,intsmoothtype=CV_GAUSSIAN,intparam1=3,intparam2=0,doubleparam3=0,doubleparam4=0);src输入图像.dst输出图像.smoothtype平滑方法:CV_BLUR_NO_SCALE(简单不带尺度变换的模糊)-对每个象素的param1×param2领域求和。如果邻域大小是变化的,可以事先利用函数cvIntegral计算积分图像。CV_BLUR(simpleblur)-对每个象素param1×param2邻域求和并做尺度变换1/(param1?param2).CV_GAUSSIAN(gaussianblur)-对图像进行核大小为param1×param2的高斯卷积CV_MEDIAN(medianblur)-对图像进行核大小为param1×param1的中值滤波(i.e.邻域是方的).CV_BILATERAL(双向滤波)-应用双向3x3滤波,彩色sigma=param1,空间sigma=param2.关于双向滤波,可参考//======================================//以下是参考//======================================{BilateralFilteringforGrayandColorImagesIntroductionFilteringisperhapsthemostfundamentaloperationofimageprocessingandcomputervision.Inthebroadestsenseoftheterm"filtering",thevalueofthefilteredimageatagivenlocationisafunctionofthevaluesoftheinputimageinasmallneighborhoodofthesamelocation.Forexample,Gaussianlow-passfilteringcomputesaweightedaverageofpixelvaluesintheneighborhood,inwhichtheweightsdecreasewithdistancefromtheneighborhoodcenter.Althoughformalandquantitativeexplanationsofthisweightfall-offcanbegiven,theintuitionisthatimagestypicallyvaryslowlyoverspace,sonearpixelsarelikelytohavesimilarvalues,anditisthereforeappropriatetoaveragethemtogether.Thenoisevaluesthatcorruptthesenearbypixelsaremutuallylesscorrelatedthanthesignalvalues,sonoiseisaveragedawaywhilesignalispreserved.Theassumptionofslowspatialvariationsfailsatedges,whichareconsequentlyblurredbylinearlow-passfiltering.Howcanwepreventaveragingacrossedges,whilestillaveragingwithinsmoothregions?Manyeffortshavebeendevotedtoreducingthisundesiredeffect.Bilateralfilteringisasimple,non-iterativeschemeforedge-preservingsmoothing.TheIdeaThebasicideaunderlyingbilateralfilteringistodointherangeofanimagewhattraditionalfiltersdoinitsdomain.Twopixelscanbeclosetooneanother,thatis,occupynearbyspatiallocation,ortheycanbesimilartooneanother,thatis,havenearbyvalues,possiblyinaperceptuallymeaningfulfashion.Considerashift-invariantlow-passdomainfilterappliedtoanimage:Theboldfontforfandhemphasizesthefactthatbothinputandoutputimagesmaybemulti-band.InordertopreservetheDCcomponent,itmustbeRangefilteringissimilarlydefined:Inthiscase,thekernelmeasuresthephotometricsimilaritybetweenpixels.ThenormalizationconstantinthiscaseisThespatialdistributionofimageintensitiesplaysnoroleinrangefilteringtakenbyitself.Combiningintensitiesfromtheentireimage,however,makeslittlesense,sincethedistributionofimagevaluesfarawayfromxoughtnottoaffectthefinalvalueatx.Inaddition,onecanshowthatrangefilteringwithoutdomainfilteringmerelychangesthecolormapofanimage,andisthereforeoflittleuse.Theappropriatesolutionistocombinedomainandrangefiltering,therebyenforcingbothgeometricandphotometriclocality.Combinedfilteringcanbedescribedasfollows:withthenormalizationCombineddomainandrangefilteringwillbedenotedasbilateralfiltering.Itreplacesthepixelvalueatxwithanaverageofsimilarandnearbypixelvalues.Insmoothregions,pixelvaluesinasmallneighborhoodaresimilartoeachother,andthebilateralfilteractsessentiallyasastandarddomainfilter,averagingawaythesmall,weaklycorrelateddifferencesbetweenpixelvaluescausedbynoise.Considernowasharpboundarybetweenadarkandabrightregion,asinfigure1(a). (a) Whenthebilateralfilteriscentered,say,onapixelonthebrightsideoftheboundary,thesimilarityfunctionsassumesvaluesclosetooneforpixelsonthesameside,andvaluesclosetozeroforpixelsonthedarkside.Thesimilarityfunctionisshowninfigure1(b)fora23x23filtersupportcenteredtwopixelstotherightofthestepinfigure1(a).Thenormalizationtermk(x)ensuresthattheweightsforallthepixelsadduptoone.Asaresult,thefilterreplacesthebrightpixelatthecenterbyanaverageofthebrightpixelsinitsvicinity,andessentiallyignoresthedarkpixels.Conversely,whenthefilteriscenteredonadarkpixel,thebrightpixelsareignoredinstead.Thus,asshowninfigure1(c),goodfilteringbehaviorisachievedattheboundaries,thankstothedomaincomponentofthefilter,andcrispedgesarepreservedatthesametime,thankstotherangecomponent.TheGaussianCaseAsimpleandimportantcaseofbilateralfilteringisshift-invariantGaussianfiltering,inwhichboththeclosenessfunctioncandthesimilarityfunctionsareGaussianfunctionsoftheEuclideandistancebetweentheirarguments.Morespecifically,cisradiallysymmetric:whereistheEuclideandistance.Thesimilarityfunctionsisperfectlyanalogoustoc:whereisasuitablemeasureofdistanceinintensityspace.Inthescalarcase,thismaybesimplytheabsolutedifferenceofthepixeldifferenceor,sincenoiseincreaseswithimageintensity,anintensity-dependentversionofit.Justasthisformofdom
本文档为【oencv中文参考手册精编p】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
该文档来自用户分享,如有侵权行为请发邮件ishare@vip.sina.com联系网站客服,我们会及时删除。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。
本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。
网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
下载需要: 免费 已有0 人下载
最新资料
资料动态
专题动态
个人认证用户
烟雨
暂无简介~
格式:doc
大小:308KB
软件:Word
页数:0
分类:
上传时间:2020-02-19
浏览量:1