2018-08-27 19:51:19 dk_15937699090 阅读数 97

我们大家知道随着移动互联及移动终端的普及,OCR技术在移动端得到很好地应用,基于OCR技术开发出的移动端车牌识别SDK可以直接对汽车的车牌进行识别录入,替代原来的手工记录,然后再人工录入电脑的步骤,可以让车牌的识别、记录工作变得快捷、便利、准确,会给业务人员带来很大的便利和效率的提升。

这里写图片描述

下面我简单介绍一下移动端车牌识别技术:

OCR移动端车牌识别技术是指通过计算机视觉、图像处理与模式识别等方法从车辆图像中提取车牌字符信息,从而确定车辆身份的技术。移动端车牌识别技术分为车牌定位、字符分割、字符识别三大部分。车牌区域在整幅图像中所占比例很小,车牌的颜色、大小、位置也不确定,并且定位算法要能够克服不同光照和复杂背景的影响,还要兼顾准确性和实时性,因此快速准确的定位车牌是比较困难的。

首先通过调取智能手机的摄像头获得车牌的彩色图像,然后将采集到的图像进处理,包括通过YUV模型进行灰度化,分段线性变换进行灰度拉升,二值化,Roberts算子进行边缘检测,数学形态学处理等,然后通过Hough变换进行车牌矫正,其次用双投影和灰度跳变的方法实现车牌的定位、分割,最后通过模板匹配实现车牌识别。

移动端车牌识别技术功能

  1. 移动端车牌识别整牌识别率高达99.7%;

  2. 识别速度快,极致优化的车牌定位和识别算法;

  3. 移动端车牌识别支持车牌种类多:蓝牌、黄牌、挂车号牌、新军牌、警牌、新武警车牌、教练车牌、大使馆车牌、农用车牌、个性化车牌、港澳出入境车牌、澳台车牌、民航车牌、领馆车牌、新能源车牌等

  4. 车牌宽度要求低;

  5. 移动端车牌识别采用纯C代码编写,可以跨平台应用。
    这里写图片描述

随着移动互联及移动终端的普及,OCR技术在移动端得到很好地应用,基于OCR技术开发出的移动端车牌识别SDK可以直接对汽车的车牌进行识别录入,替代原来的手工记录,然后再人工录入电脑的步骤,让车牌的识别、记录工作变得快捷、便利、准确,会给业务人员带来很大的便利。

2018-10-04 10:40:20 qq_32166627 阅读数 922

注:本文源自本人的硕士毕业论文,未经许可,严禁转载!
原文请参考知网:知网本论文下载地址

摘 要

随着计算机性能的飞速提升,蛰伏已久的深度学习算法终于迎来了高速发展的时期。物体识别(也叫物体检测,目标检测)是计算机视觉领域中最有价值的研究方向之一。本论文主要研究的是卷积神经网络算法在一般场景下物体识别方法的应用,更具体地说,这里的物体识别是指行车时路况信息(包括行人、过往车辆、信号灯等)的识别。

传统的物体识别方法分为三个步骤:首先在原始图像上生成目标建议框,然后提取这些建议框的特征,最后对框里的物体进行分类和边框回归。其中每一步都存在问题,近似于穷举式的目标建议框生成策略直接影响检测的速度、精准度和计算的冗余量;传统方法采用人工提取图像特征的方式并不能保证特征的质量;特征分类采用传统机器学习方法导致速度慢。更重要的一点是,这三个步骤是完全分离的,不能做到实时检测。

本论文针对上述三个问题,使用神经网络算法突破了问题的难点。首先针对手工提取图像特征难的问题,论文实现一个基于密集连接网络(DenseNet)改进的卷积神经网络,用于自动提取高质量的深度特征,能够替代手工提取图像特征;其次针对传统分类器速度慢的问题,论文使用Softmax分类器进行预测,该分类器能够天然地和卷积网络组合使用,这样就可以把第二、三步合并到一个网络中,大大提升了检测速度和精度;然后针对目标建议框生成策略,论文抛弃了直接在原始图像上生成建议框的方式,而是用神经网络首先提取图像特征,再在特征图上进行建议框生成策略,这样既准确又高效。最后,论文将以上解决方案应用到SSD检测方法中,生成一个改进的SSD检测算法。经过测试,改进后的SSD方法在检测速度和精度上均有明显的提升,并且在检测小目标时表现更佳。改进的SSD检测方法将三个检测过程合并到了同一个网络中,真正实现了端到端的实时检测。

本论文最后根据改进版的SSD检测算法实现了一个实时物体识别系统。得益于检测算法速度快、精度高等优点,系统最终实现了稳定实时检测的目标。

关键词:物体识别,卷积神经网络,密集连接,实时

ABSTRACT

With the rapid improvement of computer performance, long-standing deep learning algorithms have finally ushered in a period of rapid development. Object recognition (also called object detection, object detection) is one of the most valuable research directions in the field of computer vision. This dissertation focuses on the application of convolutional neural network algorithm in object recognition in general scenes. More specifically, object recognition here refers to the identification of traffic information (including pedestrians, passing vehicles, traffic lights, etc.) when the vehicle is traveling.

The traditional target detection method is divided into three steps. Firstly, the target suggestion frame is generated on the original image, then the features of these suggestion boxes are extracted, and finally the objects in the frame are classified and the frame is returned. Each step has its own problem, which is similar to the exhaustive target suggestion box generation strategy that directly affects the detection speed, accuracy, and computational redundancy. The traditional method of manually extracting image features does not guarantee the quality of the feature. Classification using traditional machine learning methods results in slow speeds. More importantly, these three steps are completely separate and cannot be used for real-time detection.

This paper aims at the above three problems, using neural network algorithm to break through the difficulties of the problem. For the difficulty of manually extracting image features, the paper implements a convolutional neural network based on dense connection network (DenseNet), which can automatically extract high-quality depth features and can replace the manual extraction of image features. For traditional classifiers, the speed is slow. The problem is that the paper uses the Softmax classifier to make predictions. The classifier can be used naturally in combination with a convolutional network, so that the second and third steps can be merged into one network, greatly improving the detection speed and accuracy; Generate strategy, the paper abandoned the way to generate the suggestion frame directly on the original image, but first use neural network to extract the image feature first, and then propose the strategy to generate the strategy on the feature map, which is accurate and efficient. Finally, the paper applies the above solution to the SSD detection method to generate an improved SSD detection algorithm. After testing, the improved SSD method has significantly improved detection speed and accuracy, and performs better when detecting small targets. The improved SSD detection method incorporates the three detection processes into the same network and truly enables end-to-end real-time detection.

At last, this paper implements a real-time object recognition (road condition information recognition) system based on the improved SSD detection algorithm. Thanks to the advantages of fast detection speed and high precision, the system finally achieves the goal of stable real-time detection.

Keywords: object recognition, convolutional neural networks, dense connections, real-time

2020-02-13 10:44:11 free_styl 阅读数 81

求大佬帮助,我这边有个毕业设计是用MATLAB实现基于模型的道路边缘检测,要求是:在车辆上视频中识别出道路边缘即可。
我是刚刚入门的菜鸟,只会一点基础知识,希望大佬能够帮一下忙,提供一下思路,就是提点一下我接下来要学些什么;或者是告知一下小弟这个毕设应该分的步骤,小弟在此拜谢。
我自己想的步骤是首先在视频中标记道路边缘,之后在读取识别。但是不知到可行性是多少。希望大佬给一点建议。
再次拜谢各位了

2018-07-14 14:31:11 weixin_42417028 阅读数 75

随着移动互联及移动终端的普及,OCR技术在移动端得到很好地应用,基于OCR技术开发出的移动端车牌识别SDK可以直接对汽车的车牌进行识别录入,替代原来的手工记录,然后再人工录入电脑的步骤,让车牌的识别、记录工作变得快捷、便利、准确,会给业务人员带来很大的便利。

下面简单介绍一下移动端车牌识别技术:

移动端车牌识别技术是指通过计算机视觉、图像处理与模式识别等方法从车辆图像中提取车牌字符信息,从而确定车辆身份的技术。移动端车牌识别技术分为车牌定位、字符分割、字符识别三大部分。车牌区域在整幅图像中所占比例很小,车牌的颜色、大小、位置也不确定,并且定位算法要能够克服不同光照和复杂背景的影响,还要兼顾准确性和实时性,因此快速准确的定位车牌是比较困难的。

先通过调取智能手机的摄像头获得车牌的彩色图像,然后将采集到的图像进处理,包括通过YUV模型进行灰度化,分段线性变换进行灰度拉升,二值化,Roberts算子进行边缘检测,数学形态学处理等,然后通过Hough变换进行车牌矫正,其次用双投影和灰度跳变的方法实现车牌的定位、分割,最后通过模板匹配实现车牌识别。

移动端车牌识别技术功能

1. 移动端车牌识别整牌识别率高达99.7%;

2. 识别速度快,极致优化的车牌定位和识别算法;

3. 移动端车牌识别支持车牌种类多:蓝牌、黄牌、挂车号牌、新军牌、警牌、新武警车牌、教练车牌、大使馆车牌、农用车牌、个性化车牌、港澳出入境车牌、澳台车牌、民航车牌、领馆车牌、新能源车牌等

4. 车牌宽度要求低;

5. 移动端车牌识别采用纯C代码编写,可以跨平台应用。

随着汽车市场保有量越来越大,从生产销售到保养、维修、交易等各个环节,都需要业务人员记录汽车的车牌号。传统的记录方式,即手工记录,在日益增多的业务量中显得效率越来越低,浪费了业务人员的时间,同时由于笔迹不规范造成错误率很高。所以移动端车牌识别技术的出现,实现了高效、准确地录入汽车车牌号,成为汽车保险、二手车交易、移动警务中的得力助手。


2017-08-12 09:46:41 m0_37218227 阅读数 11356

1.目标检测
(1)什么是目标检测?
判断一副图像或者视频的一帧存不存在目标物体,例如检测一幅图片中有没有花,有 没有人脸,或者检测一段视频中行驶过的车辆、行人等 检测完成后,也可以继续往深做目标识别,例如判断检测出的车是什么车,检测出的人脸是谁等等,在今后机器学习算法以及深度学习、人工智能的发展下,对目标的快速精准识别已经成为可能
(2)基本步骤

从上图我们可以看出来,通过对一副输入图像或视频帧先进行特征提取然后再通过一个分类器对其分类,即可得到分类后的结果是否是我们需要得到的目标物体,这两个是目标检测的关键,我们从分类器说起:
分类器:简单的理解就是输入一个张三的特征x,通过一个函数f来判断最后输出的y确实是张三
而我们训练分类器的过程就是给这个分类函数(数学模型)找到一系列最优的参数,使得通过这个函数来判断时能达到最好的分类效果(更高级一点的分类器就加入了学习和自适应的概念使得分类更精准),那么通过什么可以得到这个分类器呢?就是分类算法

提到算法我们不得不提到机器学习的概念,机器学习算法简单来说可以通过对其不同的角度来看分为三类:
①有监督学习(分类算法、回归算法)、无监督学习(聚类)、半监督学习
②分类与回归、标注
③生成模型、判别模型
因为我最近也刚开始学机器学习这部分,具体的以后再谈
训练分类器的算法有:SVM、决策树、knn、Adaboost算法等(比如一般检测行人是HOG特征+SVM算法;Opencv里检测人脸是Haar特征+Adaboost算法;检测拳头一般LBP特征+Adaboost算法)

同时呢,另一个关键的步骤就是特征提取,它包括特征选择和特征提取
针对不同的目标选取不同的特征才是需要解决的首要问题,但其实做到后面你就会发现,其实对特征的选择就是对算法的选择,因为不同的算法他会使用不同的特征,你选择了算法其实也就是选择了某种特征,但要是你想对算法进行改进那就是另外一回事了,你需要创建你自己的一种得到特征的方式
2.特征
(1)什么是特征?
用我自己的话来说就是,当我们要完成某些检测或者其它目的时(例如匹配、识别等等)需要对图像区域进行一个选取、计算的过程,最后得到一个能够帮我们完成这个检测目标的一个描述的东西(描述子、特征)
(2)特征都有些什么?
可以分为颜色特征、纹理特征、形状特征、特征学习等这几大类
①颜色特征:颜色直方图 (常使用HSV颜色空间)------主要应用于图像检索方面
②纹理特征:

(1)HOG(梯度方向直方图):具有图像几何和光学形变的不变性(也就是说对光照变化好) 一般应用:HOG+SVM行人检测
(Haar:一系列的模板,haar特征定义为模板内白色矩形像素和减去黑色矩形像素和)
(2)LBP特征(局部二值模式):具有旋转不变性和灰度不变性 一般应用:SVM等机器学习算法训练分类器,人脸、手掌、拳头等
(LBP:原始的LBP算子定义为在3*3的窗口内,以窗口中心像素为阈值,将相邻的8个像素的灰度值与其 进行比较,若周围像素值大于中心像素值,则该像素点的位置被标记为1,否则为0,把这个8位二进制 数叫做LBP值)
(3)Haar小波特征:具有边缘特征的特性;线性特性;中心特性和对角特性
应用:在opencv中结合Adaboost算法进行人脸检测,检测率很高
(Haar:一系列的模板,haar特征定义为模板内白色矩形像素和减去黑色矩形像素和)
(4)SIFT(尺度不变特征变换):具有尺度不变性、缺点是复杂度高、耗时长(1999年提出)
(5)SURF(Speed-upRobust Features):对SIFT的改进,大体相似、相比之下速度快几倍 (2006年提出)
(6)ORB:Fast关键点+Brief描述符,2011年首次发布、是目前最快的一种描述符
③形状特征:BOW词袋技术(Bag of word),一般应用:BOW+SVM构建的分类器进行目标检测
④特征学习:分为监督学习(分类)和无监督学习(聚类),前者包括神经网络、决策树、SVM等;后者包括主成分分析法、k均值聚类等各种聚类算法

一般常用的特征基本就是上面这些了,接下来我们具体看一下:
Harris角点检测、SIFT、SURF、ORB这几个特征或者特征算法:
①harris角点检测:用sobel算子通过对图像行列变化来边缘检测,且具有旋转不变性,但若在缩放图像时,则会相应的丢失或增加一些角点,造成检测不准确,也就是说需要一种与比例无关的检测方法
②SIFT(尺度不变特征变换):使用Difference of Gaussian(DOG)来检测关键点(即对同一图像使用不同的高斯滤波器),得到一系列关键点,并且会对关键点周围的区域计算一个特征向量(在图片上用方向来描述),得到一系列对应的描述符
③SURF:用快速Hessian算法来检测关键点(即用每个像素的Hessian矩阵行列式的近似值构成),并且跟SIFT一样计算得到一系列描述符
④ORB(Oriented Brief):Fast关键点检测技术+基于Brief描述符的技术(Brief也是一种描述子),同样的,得到的特征也是关键点+描述符的形式
可以看到,正是因为harris角点的不足之处,才有了后面这几个新的改进特征,基本都是关键点+描述符的形式来对其进行描述,他们用的最多的地方是在特征匹配上
说了这么多,我们看看这几个特征提取出来都是什么样子吧!~
1.harris角点检测

可以看到,haris角点对这种格子即使是手画的格子都能够很好地检测出角点,但在我最近检测的下面这个例子有可能是光线的原因,检测效果不太理想,也可以看看


2.sift尺度不变特征

具体都是类似于这种,图片中不只检测到了关键点,还画出了关键点周围的描述符和特征方向,至于其他SURF和ORB类似上图


这几个特征由于其尺度不变等特性,主要应用在特征匹配上面,特征匹配应用的面就比较广了,可以做特定的检测(例如通过纹身来找潜在犯人)、也可以用在视频跟踪中求3维到二维平面的投影畸变,也就是在无人机、机器人自主导航时的航向校正,通过前后帧的特征匹配求单应性矩阵,也就是相机标定里的旋转R和平移矩阵t
应用很是广泛,值得重点学习!
在opencv中主要有这么几个匹配算法:
①Brute-Force暴力匹配(描述符匹配方法):比较两个描述符,产生匹配结果的列表,每次比较都会给出一个距离值,把这些距离存到列表中
②Knn最近邻匹配算法
③由knn推广出的FLANN匹配(速度最快):(FLANN is alibrary for perfoming fast approxiamate nearest neghbour searches in high dimensional spaces)
基于c++写的一个库,在大量数据情况下,可以根据数据本身来选择合适的算法处理数据,之后进行knn匹配

下面还是举几个例子吧:

1.knn匹配:

 

SIFT做的knn匹配

 

SURF做的knn匹配

 

 

没有更多推荐了,返回首页