图像处理中直线识别_图像识别中如何判断识别直线与水平夹角 - CSDN
  • 使用霍夫变换寻找图像中直线特征

    一、原理

     参考霍夫变换,如果有课本的话参考冈萨雷斯的图像处理课本及matlab版本的课本最好,如果没有就看下这节的原理描述。
    直角坐标系中对于直线方程有如下等式:

    ρ=xcosθ+ysinθ(ρ0)

    其中ρ为坐标原点到直线的距离,θρ 与x轴正方向的夹角,x、y为直线上的点:
    如图
    对于直线上任意一个已知的点(x0,y0)有:ρ=x0cosθ+y0sinθ,则该函数是关于ρθ的方程。

    所以,对于图像上的任意一个像素点都有上述方程成立,亦即对于图像上的任意一个点,在霍夫变换后的参数空间内(θ,ρ)都可以找到一条三角函数曲线与其对应。图像上的任意两个点,即对应两条曲线,那么这两条曲线必然会产生一个交点(θ0,ρ0),这个交点再放到直线方程中,即可确定一条直线(也正是图像上这两个点所确立的直线)。

    由此推断,图像上在同一条直线(图像上应该是一个线段)上的点所产生的曲线都会在参数空间相交于一个点(θ0,ρ0),直线的长度越长(点越多),那么交于该点的曲线也越多。

    所以,在图像上找直线可以演变成在霍夫变化后参数空间(霍夫图像)中找曲线相交次数最多的点。

    代码

    平台:Ti的DSP系列
    语言:C
    
    展开全文
  • 图像处理之霍夫变换(直线检测算法) 霍夫变换是图像变换的经典手段之一,主要用来从图像分离出具有某种相同特征的几何 形状(如,直线,圆等)。霍夫变换寻找直线与圆的方法相比与其它方法可以更好的减少噪 声...

    图像处理之霍夫变换(直线检测算法)

    霍夫变换是图像变换中的经典手段之一,主要用来从图像中分离出具有某种相同特征的几何

    形状(如,直线,圆等)。霍夫变换寻找直线与圆的方法相比与其它方法可以更好的减少噪

    声干扰。经典的霍夫变换常用来检测直线,圆,椭圆等。

     

    霍夫变换算法思想:

    以直线检测为例,每个像素坐标点经过变换都变成都直线特质有贡献的统一度量,一个简单

    的例子如下:一条直线在图像中是一系列离散点的集合,通过一个直线的离散极坐标公式,

    可以表达出直线的离散点几何等式如下:

    X *cos(theta) + y * sin(theta)  = r 其中角度theta指r与X轴之间的夹角,r为到直线几何垂

    直距离。任何在直线上点,x, y都可以表达,其中 r, theta是常量。该公式图形表示如下:

    然而在实现的图像处理领域,图像的像素坐标P(x, y)是已知的,而r, theta则是我们要寻找

    的变量。如果我们能绘制每个(r, theta)值根据像素点坐标P(x, y)值的话,那么就从图像笛卡

    尔坐标系统转换到极坐标霍夫空间系统,这种从点到曲线的变换称为直线的霍夫变换。变换

    通过量化霍夫参数空间为有限个值间隔等分或者累加格子。当霍夫变换算法开始,每个像素

    坐标点P(x, y)被转换到(r, theta)的曲线点上面,累加到对应的格子数据点,当一个波峰出现

    时候,说明有直线存在。同样的原理,我们可以用来检测圆,只是对于圆的参数方程变为如

    下等式:

    (x –a ) ^2 + (y-b) ^ 2 = r^2其中(a, b)为圆的中心点坐标,r圆的半径。这样霍夫的参数空间就

    变成一个三维参数空间。给定圆半径转为二维霍夫参数空间,变换相对简单,也比较常用。

     

    编程思路解析:

    1.      读取一幅带处理二值图像,最好背景为黑色。

    2.      取得源像素数据

    3.      根据直线的霍夫变换公式完成霍夫变换,预览霍夫空间结果

    4.       寻找最大霍夫值,设置阈值,反变换到图像RGB值空间(程序难点之一)

    5.      越界处理,显示霍夫变换处理以后的图像

     

    关键代码解析:

    直线的变换角度为[0 ~ PI]之间,设置等份为500为PI/500,同时根据参数直线参数方程的取值

    范围为[-r, r]有如下霍夫参数定义:

     // prepare for hough transform
     int centerX = width / 2;
     int centerY = height / 2;
     double hough_interval = PI_VALUE/(double)hough_space;
    	    
     int max = Math.max(width, height);
     int max_length = (int)(Math.sqrt(2.0D) * max);
     hough_1d = new int[2 * hough_space * max_length];

    实现从像素RGB空间到霍夫空间变换的代码为:

    // start hough transform now....
    int[][] image_2d = convert1Dto2D(inPixels);
    for (int row = 0; row < height; row++) {
    	for (int col = 0; col < width; col++) {
        	int p = image_2d[row][col] & 0xff;
        	if(p == 0) continue; // which means background color
        	
        	// since we does not know the theta angle and r value, 
        	// we have to calculate all hough space for each pixel point
        	// then we got the max possible theta and r pair.
        	// r = x * cos(theta) + y * sin(theta)
        	for(int cell=0; cell < hough_space; cell++ ) {
        		max = (int)((col - centerX) * Math.cos(cell * hough_interval) + (row - centerY) * Math.sin(cell * hough_interval));
        		max += max_length; // start from zero, not (-max_length)
        		if (max < 0 || (max >= 2 * max_length)) {// make sure r did not out of scope[0, 2*max_lenght]
                    continue;
                }
        		hough_2d[cell][max] +=1;
        	}
        }
    }

    寻找最大霍夫值计算霍夫阈值的代码如下:

    // find the max hough value
    int max_hough = 0;
    for(int i=0; i<hough_space; i++) {
    	for(int j=0; j<2*max_length; j++) {
    		hough_1d[(i + j * hough_space)] = hough_2d[i][j];
    		if(hough_2d[i][j] > max_hough) {
    			max_hough = hough_2d[i][j];
    		}
    	}
    }
    System.out.println("MAX HOUGH VALUE = " + max_hough);
    
    // transfer back to image pixels space from hough parameter space
    int hough_threshold = (int)(threshold * max_hough);

    从霍夫空间反变换回像素数据空间代码如下:

    	    // transfer back to image pixels space from hough parameter space
    	    int hough_threshold = (int)(threshold * max_hough);
    	    for(int row = 0; row < hough_space; row++) {
    	    	for(int col = 0; col < 2*max_length; col++) {
    	    		if(hough_2d[row][col] < hough_threshold) // discard it
    	    			continue;
    	    		int hough_value = hough_2d[row][col];
    	    		boolean isLine = true;
    	    		for(int i=-1; i<2; i++) {
    	    			for(int j=-1; j<2; j++) {
    	    				if(i != 0 || j != 0) {
        		              int yf = row + i;
        		              int xf = col + j;
        		              if(xf < 0) continue;
        		              if(xf < 2*max_length) {
        		            	  if (yf < 0) {
        		            		  yf += hough_space;
        		            	  }
        		                  if (yf >= hough_space) {
        		                	  yf -= hough_space;
        		                  }
        		                  if(hough_2d[yf][xf] <= hough_value) {
        		                	  continue;
        		                  }
        		                  isLine = false;
        		                  break;
        		              }
    	    				}
    	    			}
    	    		}
    	    		if(!isLine) continue;
    	    		
    	    		// transform back to pixel data now...
    	            double dy = Math.sin(row * hough_interval);
    	            double dx = Math.cos(row * hough_interval);
    	            if ((row <= hough_space / 4) || (row >= 3 * hough_space / 4)) {
    	                for (int subrow = 0; subrow < height; ++subrow) {
    	                  int subcol = (int)((col - max_length - ((subrow - centerY) * dy)) / dx) + centerX;
    	                  if ((subcol < width) && (subcol >= 0)) {
    	                	  image_2d[subrow][subcol] = -16776961;
    	                  }
    	                }
    	              } else {
    	                for (int subcol = 0; subcol < width; ++subcol) {
    	                  int subrow = (int)((col - max_length - ((subcol - centerX) * dx)) / dy) + centerY;
    	                  if ((subrow < height) && (subrow >= 0)) {
    	                	  image_2d[subrow][subcol] = -16776961;
    	                  }
    	                }
    	              }
    	    	}
    	    }
    霍夫变换源图如下:

    霍夫变换以后,在霍夫空间显示如下:(白色表示已经找到直线信号)


    最终反变换回到像素空间效果如下:


    一个更好的运行监测直线的结果(输入为二值图像):


    完整的霍夫变换源代码如下:

    package com.gloomyfish.image.transform;
    
    import java.awt.image.BufferedImage;
    
    import com.process.blur.study.AbstractBufferedImageOp;
    
    public class HoughLineFilter extends AbstractBufferedImageOp {
    	public final static double PI_VALUE = Math.PI;
    	private int hough_space = 500;
    	private int[] hough_1d;
    	private int[][] hough_2d;
    	private int width;
    	private int height;
    	
    	private float threshold;
    	private float scale;
    	private float offset;
    	
    	public HoughLineFilter() {
    		// default hough transform parameters
    		//	scale = 1.0f;
    		//	offset = 0.0f;
    		threshold = 0.5f;
    		scale = 1.0f;
    		offset = 0.0f;
    	}
    	
    	public void setHoughSpace(int space) {
    		this.hough_space = space;
    	}
    	
    	public float getThreshold() {
    		return threshold;
    	}
    
    	public void setThreshold(float threshold) {
    		this.threshold = threshold;
    	}
    
    	public float getScale() {
    		return scale;
    	}
    
    	public void setScale(float scale) {
    		this.scale = scale;
    	}
    
    	public float getOffset() {
    		return offset;
    	}
    
    	public void setOffset(float offset) {
    		this.offset = offset;
    	}
    
    	@Override
    	public BufferedImage filter(BufferedImage src, BufferedImage dest) {
    		width = src.getWidth();
            height = src.getHeight();
    
            if ( dest == null )
                dest = createCompatibleDestImage( src, null );
    
            int[] inPixels = new int[width*height];
            int[] outPixels = new int[width*height];
            getRGB( src, 0, 0, width, height, inPixels );
            houghTransform(inPixels, outPixels);
            setRGB( dest, 0, 0, width, height, outPixels );
            return dest;
    	}
    
    	private void houghTransform(int[] inPixels, int[] outPixels) {
            // prepare for hough transform
    	    int centerX = width / 2;
    	    int centerY = height / 2;
    	    double hough_interval = PI_VALUE/(double)hough_space;
    	    
    	    int max = Math.max(width, height);
    	    int max_length = (int)(Math.sqrt(2.0D) * max);
    	    hough_1d = new int[2 * hough_space * max_length];
    	    
    	    // define temp hough 2D array and initialize the hough 2D
    	    hough_2d = new int[hough_space][2*max_length];
    	    for(int i=0; i<hough_space; i++) {
    	    	for(int j=0; j<2*max_length; j++) {
    	    		hough_2d[i][j] = 0;
    	    	}
    	    }
    	    
    	    // start hough transform now....
    	    int[][] image_2d = convert1Dto2D(inPixels);
    	    for (int row = 0; row < height; row++) {
    	    	for (int col = 0; col < width; col++) {
    	        	int p = image_2d[row][col] & 0xff;
    	        	if(p == 0) continue; // which means background color
    	        	
    	        	// since we does not know the theta angle and r value, 
    	        	// we have to calculate all hough space for each pixel point
    	        	// then we got the max possible theta and r pair.
    	        	// r = x * cos(theta) + y * sin(theta)
    	        	for(int cell=0; cell < hough_space; cell++ ) {
    	        		max = (int)((col - centerX) * Math.cos(cell * hough_interval) + (row - centerY) * Math.sin(cell * hough_interval));
    	        		max += max_length; // start from zero, not (-max_length)
    	        		if (max < 0 || (max >= 2 * max_length)) {// make sure r did not out of scope[0, 2*max_lenght]
    	                    continue;
    	                }
    	        		hough_2d[cell][max] +=1;
    	        	}
    	        }
    	    }
    	    
    		// find the max hough value
    		int max_hough = 0;
    		for(int i=0; i<hough_space; i++) {
    			for(int j=0; j<2*max_length; j++) {
    				hough_1d[(i + j * hough_space)] = hough_2d[i][j];
    				if(hough_2d[i][j] > max_hough) {
    					max_hough = hough_2d[i][j];
    				}
    			}
    		}
    		System.out.println("MAX HOUGH VALUE = " + max_hough);
    		
    		// transfer back to image pixels space from hough parameter space
    		int hough_threshold = (int)(threshold * max_hough);
    	    for(int row = 0; row < hough_space; row++) {
    	    	for(int col = 0; col < 2*max_length; col++) {
    	    		if(hough_2d[row][col] < hough_threshold) // discard it
    	    			continue;
    	    		int hough_value = hough_2d[row][col];
    	    		boolean isLine = true;
    	    		for(int i=-1; i<2; i++) {
    	    			for(int j=-1; j<2; j++) {
    	    				if(i != 0 || j != 0) {
        		              int yf = row + i;
        		              int xf = col + j;
        		              if(xf < 0) continue;
        		              if(xf < 2*max_length) {
        		            	  if (yf < 0) {
        		            		  yf += hough_space;
        		            	  }
        		                  if (yf >= hough_space) {
        		                	  yf -= hough_space;
        		                  }
        		                  if(hough_2d[yf][xf] <= hough_value) {
        		                	  continue;
        		                  }
        		                  isLine = false;
        		                  break;
        		              }
    	    				}
    	    			}
    	    		}
    	    		if(!isLine) continue;
    	    		
    	    		// transform back to pixel data now...
    	            double dy = Math.sin(row * hough_interval);
    	            double dx = Math.cos(row * hough_interval);
    	            if ((row <= hough_space / 4) || (row >= 3 * hough_space / 4)) {
    	                for (int subrow = 0; subrow < height; ++subrow) {
    	                  int subcol = (int)((col - max_length - ((subrow - centerY) * dy)) / dx) + centerX;
    	                  if ((subcol < width) && (subcol >= 0)) {
    	                	  image_2d[subrow][subcol] = -16776961;
    	                  }
    	                }
    	              } else {
    	                for (int subcol = 0; subcol < width; ++subcol) {
    	                  int subrow = (int)((col - max_length - ((subcol - centerX) * dx)) / dy) + centerY;
    	                  if ((subrow < height) && (subrow >= 0)) {
    	                	  image_2d[subrow][subcol] = -16776961;
    	                  }
    	                }
    	              }
    	    	}
    	    }
    	    
    	    // convert to hough 1D and return result
    	    for (int i = 0; i < this.hough_1d.length; i++)
    	    {
    	      int value = clamp((int)(scale * this.hough_1d[i] + offset)); // scale always equals 1
    	      this.hough_1d[i] = (0xFF000000 | value + (value << 16) + (value << 8));
    	    }
    	    
    	    // convert to image 1D and return
    	    for (int row = 0; row < height; row++) {
    	    	for (int col = 0; col < width; col++) {
    	        	outPixels[(col + row * width)] = image_2d[row][col];
    	        }
    	    }
    	}
    	
    	public BufferedImage getHoughImage() {
    		BufferedImage houghImage = new BufferedImage(hough_2d[0].length, hough_space, BufferedImage.TYPE_4BYTE_ABGR);
    		setRGB(houghImage, 0, 0, hough_2d[0].length, hough_space, hough_1d);
    		return houghImage;
    	}
    	
    	public static int clamp(int value) {
    	      if (value < 0)
    	    	  value = 0;
    	      else if (value > 255) {
    	    	  value = 255;
    	      }
    	      return value;
    	}
    	
    	private int[][] convert1Dto2D(int[] pixels) {
    		int[][] image_2d = new int[height][width];
    		int index = 0;
    		for(int row = 0; row < height; row++) {
    			for(int col = 0; col < width; col++) {
    				index = row * width + col;
    				image_2d[row][col] = pixels[index];
    			}
    		}
    		return image_2d;
    	}
    
    }
    
    转载文章请务必注明出自本博客!!

    学习图像处理,点击视频教程《数字图像处理-基础入门》




    展开全文
  • 我的图像处理的一个作业。 1.任务 PCB图的直线提取 2.使用平台 Windows10专业版 VS2015企业版 C++ opencv3.2 3.图像处理的思路 第一部分:图像的前期处理。 二值化、滤波、形态学操作等等 第二部分:直线检测与标记...

    我的图像处理的一个作业。

    1.任务

    PCB图的直线提取
    在这里插入图片描述

    2.使用平台

    Windows10专业版
    VS2015企业版
    C++ opencv3.2

    3.图像处理的思路

    第一部分:图像的前期处理。

    二值化、滤波、形态学操作等等

    第二部分:直线检测与标记

    Hough变换直线检测

    图像预处理的三种尝试

    第一种:灰度二值化后,不做其他处理
    第二种:灰度二值化后,经过形态学操作去掉不感兴趣大块区域(焊盘)
    第三种:灰度二值化后,经过形态学操作(开)提取感兴趣的直线区域

    直线检测-Hough_Line

    平面空间到极坐标空间转换
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    直线检测-Hough_Line API

    cv::HoughLinesP(
    InputArray src, // 输入图像,必须8-bit的灰度图像
    OutputArray lines, // 输出的极坐标来表示直线
    double rho, // 生成极坐标时候的像素扫描步长
    double theta, //生成极坐标时候的角度步长,一般取值CV_PI/180
    int threshold, // 阈值,只有获得足够交点的极坐标点才被看成是直线
    double minLineLength=0;// 最小直线长度
    double maxLineGap=0;// 最大间隔
    )
    
    

    第一种:灰度二值化后,不做其他处理

    1.读入图像
    2.将图像转为灰度
    3.将灰度图像二值化
    4.Hough直线检测
    5.将直线用红线标记
    在这里插入图片描述
    第二种:灰度二值化后,经过形态学操作去掉不感兴趣大块区域

    1.读入图像
    2.将图像转为灰度
    3.将灰度图像二值化
    4.使用较大结构元素腐蚀后膨胀剩下大块区域
    5.使用二值化图像减去大块区域剩下直线等小像素
    6.Hough直线检测
    7.将直线用红线标记
    在这里插入图片描述
    第三种:灰度二值化后,经过形态学操作得到感兴趣的直线区域

    1.读入图像
    2.将图像转为灰度
    3.将灰度图像二值化
    4.使用长水平矩形结构元素做开操作(腐蚀+膨胀)提取水平直线
    5.使用长垂直矩形结构元素做开操作(腐蚀+膨胀)提取垂直直线
    6.两提取图像相加
    6.Hough直线检测
    7.将直线用红线标记
    在这里插入图片描述

    总结

    1.图像处理的方法有很多种,不是唯一,单一的。
    2.图像的预处理是比较关键的,这直接影响着最后的检测结果的好坏。

    附上第三种代码:

    #include <iostream>
    #include <opencv2\opencv.hpp>
    #include <stdio.h>
    using namespace cv;
    using namespace std;
    
    Mat src, gray, dst, binaryImage, morhpImage1 , morhpImage2, kernel;
    int main(int argc, char **argv)
    {
    	src = imread("G:\\大学课程\\图像处理\\homework12\\PCB.bmp");
    	imshow("src image", src);
    
    	cvtColor(src, gray, CV_BGR2GRAY);
    
    	// 二值化
    	threshold(gray, binaryImage, 0, 255, THRESH_BINARY | THRESH_OTSU);
    	imshow("binary image", binaryImage);
    
    	int height = 60;
    	int width = 60;
    
    	// 可以直接使用形态学开闭操作的函数
    	kernel = getStructuringElement(MORPH_RECT, Size(width, 1), Point(-1, -1));
    	erode(binaryImage, morhpImage1, kernel);
    	imshow("erode", morhpImage1);
    
    	kernel = getStructuringElement(MORPH_RECT, Size(width, 1), Point(-1, -1));
    	dilate(morhpImage1, morhpImage1, kernel);
    	imshow("dilate", morhpImage1);
    
    	kernel = getStructuringElement(MORPH_RECT, Size(1, height), Point(-1, -1));
    	erode(binaryImage, morhpImage2, kernel);
    	imshow("erode1", morhpImage2);
    
    	kernel = getStructuringElement(MORPH_RECT, Size(1, height), Point(-1, -1));
    	dilate(morhpImage2, morhpImage2, kernel);
    	imshow("dilate1", morhpImage2);
    	
    	dst = morhpImage1 + morhpImage2;
    	imshow("dst", dst);
    	
    	vector<Vec4i>lines;
    	HoughLinesP(dst, lines, 1, CV_PI / 180.0, 30, 20.0, 0);
    	Mat resultImage = src.clone();
    	Mat retImage = gray.clone();
    	cvtColor(retImage, retImage, COLOR_GRAY2BGR);
    	for (size_t t = 0; t < lines.size(); t++)
    	{
    		Vec4i ln = lines[t];
    		line(resultImage, Point(ln[0], ln[1]), Point(ln[2], ln[3]), Scalar(0, 0, 255), 2, LINE_AA, 0);
    		line(retImage, Point(ln[0], ln[1]), Point(ln[2], ln[3]), Scalar(0, 0, 255), 2, LINE_AA, 0);
    	}
    	imshow("lines", resultImage);
    	imshow("lines1", retImage);
    	waitKey(0);
    
    	return 0;
    }
    
    展开全文
  • 图像处理识别

    2016-07-01 08:45:03
    图像处理识别学习小结   数字图像处理是对图像进行分析、加工、和处理,使其满足视觉、心理以及其他要求的技术。图像处理是信号处理在图像域上的一个应用。目前大多数的图像是以数字形式存储,因而图像处理很多...

    图像处理与识别学习小结

     

    数字图像处理是对图像进行分析、加工、和处理,使其满足视觉、心理以及其他要求的技术。图像处理是信号处理在图像域上的一个应用。目前大多数的图像是以数字形式存储,因而图像处理很多情况下指数字图像处理。此外,基于光学理论的处理方法依然占有重要的地位。 数字图像处理是信号处理的子类, 另外与计算机科学、人工智能等领域也有密切的关系。 传统的一维信号处理的方法和概念很多仍然可以直接应用在图像处理上,比如降噪、量化等。然而,图像属于二维信号,和一维信号相比,它有自己特殊的一面,处理的方式和角度也有所不同。大多数用于一维信号处理的概念都有其在二维图像信号领域的延伸,它们中的一部分在二维情形下变得十分复杂。同时图像处理也具有自身一些新的概念,例如,连通性、旋转不变性,等等。这些概念仅对二维或更高维的情况下才有非平凡的意义。图像处理中常用到快速傅立叶变换,因为它可以减小数据处理量和处理时间。 
    数字图像处理应用在以下方面 :

    摄影及印刷 (Photography and printing)

    卫星图像处理 (Satellite image processing)

    医学图像处理 (Medical image processing)

    面孔识别, 特征识别 (Face detection, feature detection, face identification)

    显微图像处理 (Microscope image processing)

    汽车障碍识别 (Car barrier detection)

     

    数字图像基础

    图像的基本概念、图像取样和量化、数字图像表示、 空间和灰度级分辨率、图像纹理、像素间的一些基本关系(相邻像素、邻接性、连通性、区域和边界、距离度量)、线性和非线性变换。

    线性变换:如果变换函数是线性的或是分段线性,这种变换就是线性变换。以线性函数加大图像的对比度的效果是使整幅图像的质量改善。以分段线性函数加大图像中某个(或某几个)亮度区间的对比度的效果是使局部亮度区间的质量得到改善。

    非线性变换:当变换函数是非线性时,即为非线性变换。常用的有指数变换和对数变换。

    RGB (red green blue): 红绿蓝三基色

    CMYK (Cyan-Magenta-Yellow-black inK): 青色-品红-黄色-黑色

    HSI (Hue-Saturation-Intensity): 色调-饱和度-强度

    DDB (device-dependent bitmap): 设备相关位图

    DIB (device-independent bitmap): 设备无关位图

    CVBS (Composite Video Broadcast Signal): 复合电视广播信号

    YUV(亦称Y Cr Cb)是被欧洲电视系统所采用的一种颜色编码方法(属于PAL制)。

     



     

    数字图像存储与显示

    图像格式

    在计算机中,有两种类型的图:矢量图(vector graphics)和位映象图(bitmapped graphics)。矢量图是用数学方法描述的一系列点、线、弧和其他几何形状,如图(a)所示。因此存放这种图使用的格式称为矢量图格式,存储的数据主要是绘制图形的数学描述;位映象图(bitmapped graphics)也称光栅图(raster graphics),这种图就像电视图像一样,由象点组成的,如图(b),因此存放这种图使用的格式称为位映象图格式,经常简称为位图格式,存储的数据是描述像素的数值。

     

    矢量图与位映象图

    目前包括bmp格式、gif格式、jpeg格式、jpeg2000格式、tiff格式、psd格式、

    Png格式、swf格式、svg格式、pcx格式、dxf格式、wmf格式、emf格式、LIC格式、eps格式、TGA格式。

    目前比较出名的图像处理库有很多,比如LEADTOOLS、OPENCV,LEADTOOLS这个是功能非常强大的图像多媒体库,但是这个是收费注册的。OpenCV 是一个跨平台的中、高层 API 构成,目前包括300 多个 C 函数。它不依赖与其它的外部库,尽管也可以使用某些外部库。OpenCV 对非商业用途和商业用途都是免费(FREE)的。开源的图像库也有不少,比如:

    ImageStone、GIMP、CxImage等,虽然它们的功能没有LEADTOOLS强大,但是一般的图像处理是可以应付的。

    具体的功能介绍参考:http://blog.csdn.net/byxdaz/archive/2009/03/09/3972293.aspx

    OpenCV源代码及文档下载:SOURCEFORGE.NET
    http://sourceforge.net/projects/opencvlibrary/

     

     

    数字图像增强

    图像增强的目的在于改善图像的显示质量,以利于信息的提取和识别。从方法上说,则是设法摒弃一些认为不必要或干扰的信息,而将所需要的信息得以突出出来,以利于分析判读或作进一步的处理。以下介绍几种较为简单的遥感数字图像增强处理方法。

    A空间域增强处理

    空间域是指图像平面所在的二维空间,空间域图像增强是指在图像平面上应用某种数学模型,通过改变图像像元灰度值达到增强效果,这种增强并不改变像元的位置。空域增强包括空域变换增强与空域滤波增强两种。空域变换增强是基于点处理的增强方法、空域滤波增强是基于邻域处理的增强方法。

    1)、空域变换增强

    常用的空域变换增强方法包括:对比度增强、直方图增强和图像算术运算等。

    对比度增强是一种通过改变图像像元的亮度分布态势,扩展灰度分布区间来改变图像像元对比度,从而改善图像质量的图像处理方法。因为亮度值是辐射强度的反映,所以也称为辐射增强。常用的方法有对比度线性变换和非线性变换。其关键是寻找到一个函数,以此函数对图像中每一个像元进行变换,使像元得到统一的重新分配,构成得到反差增强的图像。

    直方图增强

    直方图均衡化

         直方图均衡化基本做法是将每个灰度区间等概率分布代替了原来的随机分布,即增强后的图象中每一灰度级的像元数目大致相同。直方图均衡化可使得面积最大的地物细节得以增强,而面积小的地物与其灰度接近的地物进行合并,形成综合地物。减少灰度等级换取对比度的增大。

    直方图归一化 

         直方图归一化是把原图像的直方图变换为某种指定形态的直方图或某一参考图像的直方图,然后按着已知的指定形态的直方图调整原图像各像元的灰级,最后得到一个直方图匹配的图像。这种方法主要应用在有一幅很好的图像作为标准的情况下,对另一幅不满意的图像用标准图像的直方图进行匹配处理,以改善被处理图像的质量。如在数字镶嵌时,重叠区影像色调由于时相等原因差异往往很大,利用直方图匹配这一方法后可以改善重叠区影像色调过度,如果镶嵌图像时相相差不大,完全可以作到无缝镶嵌。

    数字图像的算术运算

    两幅或多幅单波段影像,完成空间配准后,通过一系列运算,可以实现图像增强,达到提取某些信息或去掉某些不必要信息的目的。

      

    2)、空域滤波增强

    空域变换增强是按像元逐点运算的,从整体上改善图像的质量,并不考虑周围像元影响。空间滤波增强则是以重点突出图像上的某些特征为目的的(如突出边缘或纹理等),通过像元与周围相邻像元的关系,采取空间域中的邻域处理方法进行图像增强。邻域法处理用于去噪声、图像平滑、锐化和相关运算。

    图像卷积运算是在空间域上对图像作局部检测的运算,以实现平滑和锐化的目的。具体作法是选定一卷积函数,又称为“M×N窗口”或“模板”,如3×3或5×5等。然后从图像左上角开始开一与模板同样大小的活动窗口,图像窗口与模板像元的亮度值对应相乘再相加。将计算结果赋予中心像元作为其灰度值,然后待移动后重新计算,将计算结果赋予另一个中心像元,以此类推直到全幅图像扫描一遍结束生成新的图像。

    平滑是指图像中出现某些亮度变化过大的区域,或出现不该有的亮点(“噪声”)时,采用平滑方法可以减小变化,使亮度平缓或去掉不必要“噪声”点。它实际上是使图像中高频成分消退,即平滑图像的细节,降低其反差,保存低频成分,在频域中称为低通滤波。具体方法有:均值平滑、中值滤波、锐化。

    锐化的作用在于提高边缘灰度值的变化率,使界线更加清晰。它是增强图像中的高频成分,在频域处理中称为高通滤波,也就是使图像细节的反差提高,也称边缘增强。要突出图像的边缘、线状目标或亮度变化率大的部分常采用锐化方法。一般有三种实现方法:

    (1)梯度法

        梯度反映了相邻像元的亮度变化率,即图像中如果存在边缘,如湖泊、河流的边界,山脉和道路等,则边缘处有较大的梯度值。对于亮度值较平滑的部分,亮度梯度值较小。因此,找到梯度较大的位置,也就找到边缘,然后再用不同的梯度计算值代替边缘处像元的值,也就突出了边缘,实现了图像的锐化。通常有罗伯特梯度和索伯尔梯度方法。

    (2)拉普拉斯算法

        拉普拉斯算法的意义与梯度法不同,它不检测均匀的亮度变化,而是检测变化率的变化率,相当于二阶微分。计算出的图像更加突出亮度值突变的位置。

    (3)定向检测

        当有目的地检测某一方向的边、线或纹理特征时,可选择特定的模板卷积运算作定向检测。可以检测垂直边界、水平边界和对角线边界等,各使用的模板不同

     

    B、频率域图像增强处理
    频域增强指在图像的频率域内,对图像的变换系数(频率成分)直接进行运算,然后通过Fourier逆变换以获得图像的增强效果。

    一般来说,图像的边缘和噪声对应Fourier变换中的高频部分,所以低通滤波能够平滑图像、去除噪声。

    图像灰度发生聚变的部分与频谱的高频分量对应,所以采用高频滤波器衰减或抑制低频分量,能够对图像进行锐化处理。

    频域,就是由图像f(x,y)的二维傅立叶变换和相应的频率变量(u,v)的值所组成的空间。在空间域图像强度的变化模式(或规律)可以直接在该空间得到反应。F(0,0)是频域中的原点,反应图像的平均灰度级,即图像中的直流成分;低频反映图像灰度发生缓慢变化的部分;而高频对应图像中灰度发生更快速变化的部分,如边缘、噪声等。但频域不能反应图像的空间信息。

     

     

    二维DFT及其反变换、Fast FT

    关于这方面的内容需要参考数学知识。

    空域和频域滤波间的对应关系:

    卷积定理是空域和频域滤波的最基本联系纽带。二维卷积定理:

     

     

     


    基本计算过程:

    1. 取函数h(m,n)关于原点的镜像,得到h(-m,-n)
    2. 对某个(x,y),使h(-m,-n)移动相应的距离,得到h(x-m,y-n)
    3. 对积函数f(m,n)h(x-m,y-n)在(m,n)的取值范围内求和
    4. 位移是整数增量,对所有的(x,y)重复上面的过程,直到两个函数:f(m,n)和h(x-m,y-n)不再有重叠的部分。

     

    傅立叶变换是空域和频域的桥梁,关于两个域滤波的傅立叶变换对:

     

     

     

     

     

     

     

     


    频域与空域滤波的比较:

    1. 对具有同样大小的空域和频率滤波器:h(x,y), H(u,v),频域计算(由于FFT)往往更有效(尤其是图像尺寸比较大时)。但对在空域中用尺寸较小的模板就能解决的问题,则往往在空域中直接操作。

    2. 频域滤波虽然更直接,但如果可以使用较小的滤波器,还是在空域计算为好。    因为省去了计算傅立叶变换及反变换等步骤。

    3. 由于更多的直观性,频率滤波器设计往往作为空域滤波器设计的向导。

     

    平滑的频率域滤波器类型
    1 、理想低通滤波器
    2 、巴特沃思低通滤波器
    3 、高斯低通滤波器
    频率域锐化滤波器类型
    1 理想高通滤波器
    2 巴特沃思高通滤波器

    3 高斯型高通滤波器

    4 频率域的拉普拉斯算子
    5 钝化模板、高频提升滤波和高频加强滤波
    频率域图像增强处理的过程:

     

     

    图像复原
    图像复原:试图利用退化过程的先验知识,去恢复已被退化图像的本来面目。

     

    图像复原的基本思路:先建立退化的数学模型,然后根据该模型对退化图像进行拟合。

    图像复原模型可以用连续数学和离散数学处理,处理项的实现可在空间域卷积,或在频域相乘。  
    参考资料:
    http://download.csdn.net/source/1513324

     


    边缘检测

    数字图像的边缘检测是图像分割、目标区域的识别、区域形状提取等图像分析领域十分重要的基础,图像理解和分析的第一步往往就是边缘检测,目前它以成为机器视觉研究领域最活跃的课题之一,在工程应用中占有十分重要的地位。所谓边缘就是指图像局部亮度变化最显著的部分,它是检测图像局部变化显著变化的最基本的运算。边缘的记录有链码表和线段表2种,链码表适合计算周长,线段表容易计算面积以及相关的,他们之间可以相互的转换。

    常见的边缘检测算法:

    Roberts边缘检测算子

    Sobel边缘算子

    Prewitt边缘算子

    Kirsch边缘算子

    CANNY边缘检测

     


    图像压缩
    图像压缩是数据压缩技术在数字图像上的应用,它的目的是减少图像数据中的冗余信息从而用更加高效的格式存储和传输数据。图像压缩可以是有损数据压缩也可以是无损数据压缩。对于如绘制的技术图、图表或者漫画优先使用无损压缩,这是因为有损压缩方法,尤其是在低的位速条件下将会带来压缩失真。如医疗图像或者用于存档的扫描图像等这些有价值的内容的压缩也尽量选择无损压缩方法。有损方法非常适合于自然的图像,例如一些应用中图像的微小损失是可以接受的(有时是无法感知的),这样就可以大幅度地减小位速。

    无损图像压缩方法有:

    行程长度编码

    熵编码法

    LZW算法

    有损压缩方法有:

    将色彩空间化减到图像中常用的颜色。所选择的颜色定义在压缩图像头的调色板中,图像中的每个像素都用调色板中颜色索引表示。这种方法可以与 抖动(en:dithering)一起使用以模糊颜色边界。

    色度抽样,这利用了人眼对于亮度变化的敏感性远大于颜色变化,这样就可以将图像中的颜色信息减少一半甚至更多。

    变换编码,这是最常用的方法。首先使用如离散余弦变换(DCT)或者小波变换这样的傅立叶相关变换,然后进行量化和用熵编码法压缩。

    分形压缩(en:Fractal compression)。



    形态学图像处理
     膨胀与腐蚀

     膨胀
    腐蚀
    开操作与闭操作
    击中或击不中变换
    一些基本的形态学算法

    边界提取
    区域填充
    连通分量的提取
    凸壳
    细化
    粗化
    骨架

    裁剪


    图像分割
    图像分割是指通过某种方法,使得画面场景中的目标物被分为不同的类别。通常图像分割的实现方法是,将图像分为“黑”、“白”两类,这两类分别代表了两个不同的对象。

    图像分割方法:阈值分割、区域分割、数学形态学、模式识别方法

    A、阈值分割包括以下几种:

    (1)由直方图灰度分布选择阈值

    (2)双峰法选择阈值

    (3)迭代法选取阈值

         原理如下,很好理解。

         迭代法是基于逼近的思想,其步骤如下:
          1. 求出图象的最大灰度值和最小灰度值,分别记为ZMAX和ZMIN,令初始阈值T0=(ZMAX+ZMIN)/2;
         2. 根据阈值TK将图象分割为前景和背景,分别求出两者的平均灰度值ZO和ZB;
         3. 求出新阈值TK+1=(ZO+ZB)/2;
         4. 若TK=TK+1,则所得即为阈值;否则转2,迭代计算。

    (4 )大津法选择阈值

    大津法是属于最大类间方差法,它是自适应计算单阈值的简单高效方法,或者叫(Otsu)

    大津法由大津于1979年提出,对图像Image,记t为前景与背景的分割阈值,前景点数占图像比例为w0,平均灰度为u0;背景点数占图像比例为w1,平均灰度为u1。图像的总平均灰度为:u=w0*u0+w1*u1。从最小灰度值到最大灰度值遍历t,当t使得值g=w0*(u0-u)2+w1*(u1-u)2 最大时t即为分割的最佳阈值。对大津法可作如下理解:该式实际上就是类间方差值,阈值t分割出的前景和背景两部分构成了整幅图像,而前景取值u0,概率为 w0,背景取值u1,概率为w1,总均值为u,根据方差的定义即得该式。因方差是灰度分布均匀性的一种度量,方差值越大,说明构成图像的两部分差别越大, 当部分目标错分为背景或部分背景错分为目标都会导致两部分差别变小,因此使类间方差最大的分割意味着错分概率最小。直接应用大津法计算量较大,因此一般采用了等价的公式g=w0*w1*(u0-u1)2。

    (5)由灰度拉伸选择阈值

    大津法是较通用的方法,但是它对两群物体在灰度不明显的情况下会丢失一些整体信息。因此为了解决这种现象采用灰度拉伸的增强大津法。在大津法的思想上增加灰度的级数来增强前两群物体的灰度差。对于原来的灰度级乘上同一个系数,从而扩大了图像灰度的级数。试验结果表明不同的拉伸系数,分割效果差别比较大。

     

    B、区域的分割

    区域生长、区域分离与合并

     区域生长算法


    C、基于形态学分水岭的分割

    分水岭分割算法


    图像特征提取与匹配

    常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。

    A 颜色特征

    特点:颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。由于颜色对图像或图像区域的方向、大小等变化不敏感,所以颜色特征不能很好地捕捉图像中对象的局部特征。

    常用的特征提取与匹配方法:

    颜色直方图

    其优点在于:它能简单描述一幅图像中颜色的全局分布,即不同色彩在整幅图像中所占的比例,特别适用于描述那些难以自动分割的图像和不需要考虑物体空间位置的图像。其缺点在于:它无法描述图像中颜色的局部分布及每种色彩所处的空间位置,即无法描述图像中的某一具体的对象或物体。

    颜色直方图特征匹配方法:直方图相交法、距离法、中心距法、参考颜色表法、累加颜色直方图法。

     

    B 纹理特征

    纹理特征的提取方法比较简单,它是用一个活动的窗口在图像上连续滑动,分别计算出窗口中的方差、均值、最大值、最小值及二者之差和信息熵等,

    形成相应的纹理图像,当目标的光谱特性比较接近时,纹理特征对于区分目标可以起到积极的作用。选取适当的数据动态变化范围,进行纹理特征提取后,使影像的纹理特征得到突出,有利于提取构造信息。

    特点:纹理特征也是一种全局特征,它也描述了图像或图像区域所对应景物的表面性质。但由于纹理只是一种物体表面的特性,并不能完全反映出物体的本质属性,所以仅仅利用纹理特征是无法获得高层次图像内容的。与颜色特征不同,纹理特征不是基于像素点的特征,它需要在包含多个像素点的区域中进行统计计算。在模式匹配中,这种区域性的特征具有较大的优越性,不会由于局部的偏差而无法匹配成功。作为一种统计特征,纹理特征常具有旋转不变性,并且对于噪声有较强的抵抗能力。但是,纹理特征也有其缺点,一个很明显的缺点是当图像的分辨率变化的时候,所计算出来的纹理可能会有较大偏差。另外,由于有可能受到光照、反射情况的影响,从2-D图像中反映出来的纹理不一定是3-D物体表面真实的纹理。

    常用的特征提取与匹配方法:

    纹理特征描述方法分类

    (1)统计方法统计方法的典型代表是一种称为灰度共生矩阵的纹理特征分析方法Gotlieb 和 Kreyszig等人在研究共生矩阵中各种统计特征基础上,通过实验,得出灰度共生矩阵的四个关键特征:能量、惯量、熵和相关性。统计方法中另一种典型方法,则是从图像的自相关函数(即图像的能量谱函数)提取纹理特征,即通过对图像的能量谱函数的计算,提取纹理的粗细度及方向性等特征参数

    (2)几何法

    所谓几何法,是建立在纹理基元(基本的纹理元素)理论基础上的一种纹理特征分析方法。纹理基元理论认为,复杂的纹理可以由若干简单的纹理基元以一定的有规律的形式重复排列构成。在几何法中,比较有影响的算法有两种:Voronio 棋盘格特征法和结构法。

    (3)模型法

    模型法以图像的构造模型为基础,采用模型的参数作为纹理特征。典型的方法是随机场模型法,如马尔可夫(Markov)随机场(MRF)模型法和 Gibbs 随机场模型法

    (4)信号处理法

    纹理特征的提取与匹配主要有:灰度共生矩阵、Tamura 纹理特征、自回归纹理模型、小波变换等。

    灰度共生矩阵特征提取与匹配主要依赖于能量、惯量、熵和相关性四个参数。Tamura 纹理特征基于人类对纹理的视觉感知心理学研究,提出6种属性,即

    :粗糙度、对比度、方向度、线像度、规整度和粗略度。自回归纹理模型(simultaneous auto-regressive, SAR)是马尔可夫随机场(MRF)模型的一种应用实例。

     

    C形状特征

    特点:各种基于形状特征的检索方法都可以比较有效地利用图像中感兴趣的目标来进行检索,但它们也有一些共同的问题,

    常用的特征提取与匹配方法:

    通常情况下,形状特征有两类表示方法,一类是轮廓特征,另一类是区域特征。图像的轮廓特征主要针对物体的外边界,而图像的区域特征则关系到整个形状区域。

    几种典型的形状特征描述方法:

    (1)边界特征法该方法通过对边界特征的描述来获取图像的形状参数。其中Hough 变换检测平行直线方法和边界方向直方图方法是经典方法。Hough 变换是利用图像全局特性而将边缘像素连接起来组成区域封闭边界的一种方法,其基本思想是点—线的对偶性;边界方向直方图法首先微分图像求得图像边缘,然后,做出关于边缘大小和方向的直方图,通常的方法是构造图像灰度梯度方向矩阵。

    (2)傅里叶形状描述符法

    傅里叶形状描述符(Fourier shape descriptors)基本思想是用物体边界的傅里叶变换作为形状描述,利用区域边界的封闭性和周期性,将二维问题转化为一维问题。

    由边界点导出三种形状表达,分别是曲率函数、质心距离、复坐标函数。

    (3)几何参数法

    形状的表达和匹配采用更为简单的区域特征描述方法,例如采用有关形状定量测度(如矩、面积、周长等)的形状参数法(shape factor)。在 QBIC 系统中,便是利用圆度、偏心率、主轴方向和代数不变矩等几何参数,进行基于形状特征的图像检索。

     

    D空间关系特征

    特点:所谓空间关系,是指图像中分割出来的多个目标之间的相互的空间位置或相对方向关系,这些关系也可分为连接/邻接关系、交叠/重叠关系和包含/包容关系等。通常空间位置信息可以分为两类:相对空间位置信息和绝对空间位置信息。前一种关系强调的是目标之间的相对情况,如上下左右关系等,后一种关系强调的是目标之间的距离大小以及方位。显而易见,由绝对空间位置可推出相对空间位置,但表达相对空间位置信息常比较简单。
    空间关系特征的使用可加强对图像内容的描述区分能力,但空间关系特征常对图像或目标的旋转、反转、尺度变化等比较敏感。另外,实际应用中,仅仅利用空间信息往往是不够的,不能有效准确地表达场景信息。为了检索,除使用空间关系特征外,还需要其它特征来配合。

    常用的特征提取与匹配方法:

    提取图像空间关系特征可以有两种方法:一种方法是首先对图像进行自动分割,划分出图像中所包含的对象或颜色区域,然后根据这些区域提取图像特征,并建立索引;另一种方法则简单地将图像均匀地划分为若干规则子块,然后对每个图像子块提取特征,并建立索引。

     

     

    模式识别

    模式识别是一种从大量信息和数据出发,在专家经验和已有认识的基础上,利用计算机和数学推理的方法对形状、模式、曲线、数字、字符格式和图形自动完成识别的过程。模式识别包括相互关联的两个阶段,即学习阶段和实现阶段,前者是对样本进行特征选择,寻找分类的规律,后者是根据分类规律对未知样本集进行分类和识别。广义的模式识别属计算机科学中智能模拟的研究范畴,内容非常广泛,包括声音和语言识别、文字识别、指纹识别、声纳信号和地震信号分析、照片图片分析、化学模式识别等等。计算机模式识别实现了部分脑力劳动自动化。

    模式识别--对表征事物或现象的各种形式的(数值的,文字的和逻辑关系的)信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程,是信息科学和人工智能的重要组成部分。

    模式还可分成抽象的和具体的两种形式。前者如意识、思想、议论等,属于概念识别研究的范畴,是人工智能的另一研究分支。我们所指的模式识别主要是对语音波形、地震波、心电图、脑电图、图片、文字、符号、三位物体和景物以及各种可以用物理的、化学的、生物的传感器对对象进行测量的具体模式进行分类和辨识。

    模式识别问题指的是对一系列过程或事件的分类与描述,具有某些相类似的性质的过程或事件就分为一类。模式识别问题一般可以应用以下4种方法进行分析处理。

    模版比对:

    统计模式识别方法:统计模式识别方法是受数学中的决策理论的启发而产生的一种识别方法,它一般假定被识别的对象或经过特征提取向量是符合一定分布规律的随机变量。其基本思想是将特征提取阶段得到的特征向量定义在一个特征空间中,这个空间包含了所有的特征向量,不同的特征向量,或者说不同类别的对象都对应于空间中的一点。在分类阶段,则利用统计决策的原理对特征空间进行划分,从而达到识别不同特征的对象的目的。统计模式识别中个应用的统计决策分类理论相对比较成熟,研究的重点是特征提取。统计模式识别的基本原理是:有相似性的样本在模式空间中互相接近,并形成“集团”,即“物以类聚”。其分析方法是根据模式所测得的特征向量Xi=(xi1,xi2,…,xid)T(i=1,2,…,N),将一个给定的模式归入C个类ω1,ω2,…,ωc中,然后根据模式之间的距离函数来判别分类。其中,T表示转置;N为样本点数;d为样本特征数。

    统计模式识别的主要方法有:判别函数法,k近邻分类法,非线性映射法,特征分析法,主因子分析法等。

    在统计模式识别中,贝叶斯决策规则从理论上解决了最优分类器的设计问题,但其实施却必须首先解决更困难的概率密度估计问题。BP神经网络直接从观测数据(训练样本)学习,是更简便有效的方法,因而获得了广泛的应用,但它是一种启发式技术,缺乏指定工程实践的坚实理论基础。统计推断理论研究所取得的突破性成果导致现代统计学习理论——VC理论的建立,该理论不仅在严格的数学基础上圆满地回答了人工神经网络中出现的理论问题,而且导出了一种新的学习方法——支撑向量机。

     

    人工神经网络模式识别:人工神经网络的研究起源于对生物神经系统的研究。人工神经网络区别于其他识别方法的最大特点是它对待识别的对象不要求有太多的分析与了解,具有一定的智能化处理的特点。

    句法结构模式识别:又称结构方法或语言学方法。其基本思想是把一个模式描述为较简单的子模式的组合,子模式又可描述为更简单的子模式的组合,最终得到一个树形的结构描述,在底层的最简单的子模式称为模式基元。在句法方法中选取基元的问题相当于在决策理论方法中选取特征的问题。通常要求所选的基元能对模式提供一个紧凑的反映其结构关系的描述,又要易于用非句法方法加以抽取。显然,基元本身不应该含有重要的结构信息。模式以一组基元和它们的组合关系来描述,称为模式描述语句,这相当于在语言中,句子和短语用词组合,词用字符组合一样。基元组合成模式的规则,由所谓语法来指定。一旦基元被鉴别,识别过程可通过句法分析进行,即分析给定的模式语句是否符合指定的语法,满足某类语法的即被分入该类。

    在几种算法中,统计模式识别是最经典的分类识别方法,在图像模式识别中有着非常广泛的应用。

     

     

    参考书籍:美国 冈萨雷斯 数字图像处理第二版

    展开全文
  • 图像处理识别学习小结   数字图像处理是对图像进行分析、加工、和处理,使其满足视觉、心理以及其他要求的技术。图像处理是信号处理在图像域上的一个应用。目前大多数的图像是以数字形式存储,因而图像处理很多...
  • 1 系统分析1.1 问题描述以柑橘为例,开发一个水果识别系统。要求:1. 使用GUI界面,打开图像,对其中的柑橘进行标识,标识出的效果大致如下...(2)对图像中的柑橘进行标识并保留每一部所处理图像。(3)对柑橘个...
  • 总结一下我做的细胞图像识别项目的过程和经验与结果收获
  • 图像处理 -- 识别刻度

    2019-01-23 13:45:57
    图像处理识别刻度 需求: 1.从图片文件夹挑选出清晰度最高的一张图片,删除剩余; 2.算法识别最左端的刻度线,以中间直线为基准,从左向右扫描检测区域, 识别每一条刻度的边缘,一直扫描到不再有灰度的...
  • 霍夫变换是图像处理中从图像中识别几何形状的基本方法之一,应用很广泛,也有很多改进算法。主要用来从图像分离出具有某种相同特征的几何形状(如,直线,圆等)。 python实现 import cv2 import numpy as np...
  • 开发板:STM32F407 功能: (一)OV7670(不带FIFO)驱动及LCD显示 (二)图像灰度化处理(第二幅图) (三)二值化处理(最大类间方差法确定阈值)(第三幅图) (四)平行直线识别(第四幅图) ...
  • Hough变换的原理: 将图像图像空间变换至参数空间,变换公式如下: 变换以后,图像空间与...下面使用Matlab实现Hough变换对图像中直线划痕进行检测。 close all; clear all; I = imread('scratch.tif'); ...
  • 原文地址:图像处理和图像识别中常用的OpenCV函数1作者:xiaoli870804 1、cvLoadImage:将图像文件加载至内存; 2、cvNamedWindow:在屏幕上创建一个窗口; 3、cvShowImage:在一个已创建好的窗口中显示...
  • 在项目需要识别直线。 正常来讲对于直线识别需要对图像进行边缘检测,再对边缘检测后的图像进行概率霍夫变换。但是对于存在粗直线图像,边缘检测后,粗直线非边缘的部分就被过滤掉了,有效信息会有部分丢失...
  • 图像处理和图像识别中常用的OpenCV函数
  • Hough变换是图像处理中从图像中识别几何形状的基本方法之一。Hough变换的基本原理在于利用点与线的对偶性,将原始图像空间的给定的曲线通过曲线表达形式变为参数空间的一个点。这样就把原始图像给定曲线的检测问题...
1 2 3 4 5 ... 20
收藏数 12,917
精华内容 5,166
关键字:

图像处理中直线识别