精华内容
下载资源
问答
  • 百度开发OCR

    2015-12-16 16:08:28
    百度开发OCR
  • 文字识别OCR开发包文字识别OCR开发包文字识别OCR开发包文字识别OCR开发包文字识别OCR开发包文字识别OCR开发包文字识别OCR开发
  • matlab开发-OCR

    2019-08-24 11:28:42
    matlab开发-OCR。光学字符识别
  • Laravel开发-ocr-space

    2019-08-28 07:52:17
    Laravel开发-ocr-space Laravel ocr.space API客户端
  • 文字识别开发包(OCR开发包)

    热门讨论 2015-05-26 00:03:56
    OCR开发包适用于名片、卡片、杂志和报纸期刊等各种复杂版面上的文字识别,也同样适用于扫描文档等一般文档类版面的识别工作,支持中、日、韩、英、法、德、意、俄、西 班牙、葡萄牙等共计70门语言,服务于世界各国的...
  • 小白同学不知道如何做一个ocr小程序,这里我为广大小白同学介绍一个便捷的方法,利用现成系统直接搭建。 工具材料: 基于百度ocr开发的微信小程序ocr识别图像文字工具源码 下载地址:...

    小白同学不知道如何做一个ocr小程序,这里我为广大小白同学介绍一个便捷的方法,利用现成系统直接搭建。

    工具材料:

    基于百度ocr开发的微信小程序ocr识别图像文字工具源码
    下载地址:https://download.csdn.net/download/hj960511/18420237

    安装方式:

    步骤一、下载源码

    快速做一个微信OCR图像文字识别小程序的开发方案

    步骤二、下载源码后解压缩,会在根目录看到一个说明文档,后缀为.md,查看文档后会看到如下的详细操作。

    后台管理系统安装步骤:
    步骤一:将.env.install 文件内容赋值到 新建的文件.env中 
    
    步骤二:数据库中创建一个数据库命名为 install.sql 并将sql 运行填充sql进这个数据库
    
    步骤三:修改配置文件.env文件中的数据库和用户名
    
    步骤四:配置伪静态
    
    步骤五:打开域名,查看是否安装正确。
    

    步骤三、安装好后台管理系统后,找到文件下的small_app,配置config.js,配置自己的域名和地址。
    注:需要开启https,同时需要先申请一个百度ocr的接口账号。

    部署完成的效果:

    快速做一个微信OCR图像文字识别小程序的开发方案

    飞机票直达体验

    快速做一个微信OCR图像文字识别小程序的开发方案

    这个完整源码的特性介绍

    1.拥有完美的ocr识别能力,支持多种语言,英语、汉语,德语等。
    2.拥有会员付费限制的功能,可自定义设置。
    3.拥有免费限制和会员管理的功能。

    推荐理由

    1.便捷,快速,且便宜
    2.可以零成本试错,亲测微信平台稳过。
    3.系统稳定,支持oss对象存储。
    4.界面简单,功能实用
    5.价格便宜是最重要的。

    展开全文
  • Laravel开发-laravel-ocr

    2019-08-28 05:07:10
    Laravel开发-laravel-ocr GOCR的包装纸。
  • 文字识别OCR开发

    2018-08-09 15:47:08
    文字识别OCR开发包,并且有例子和文档,供大家学习,包括文字识别OCR开发包和Demo两文件夹
  • Tesseract OCR for PHP一个包装程序,可在PHP中与Tesseract OCR一起使用。 通过Composer安装:$ composer require thiagoalessio / tesseract_ocr!该库取决于Tess Tesseract OCR for PHP一个包装器,可在PHP中与...
  • Android ocr app开发例子

    2018-05-28 09:59:42
    开发工具 android studio代码实现ocr开发的例子,cmake因为太大,没有办法压缩上传,需要通过android studio下载
  • matlab开发-OCR图像预处理。预处理、噪声消除、最小边界框、骨架化
  • 之前从找到了云脉OCR SDK开发者平台,注册了一个账号,免费试用了一个月,虽然OCR识别率高,但是接下去需要付费,但是个人开发,还无法负担的起这笔费用。传说清华OCR也有SDK提供,可惜没有找到。其它OCR SDK也不好...
  • Java开发OCR程序 根据图像识别转换成中文 包含源码和demo
  • LEADTOOLS OCR C#二次开发

    2018-12-08 14:35:24
    本C#代码基于LEADTOOLS 19编写,最近在做OCR项目,网上找了很多资料,都没有一个比较详细的介绍,本人也是自己慢慢摸索,让有相同需求的同学可以少走一点弯路,使用时电脑必须安装LEADTOOLS 19,代码中的一些路径...
  • LEADTOOLS OCR开发实际案例 慧都OMR智能阅卷系统案例
  • QT开发的截图OCR程序,百度接口

    千次阅读 2019-03-15 15:01:23
    QT开发的截图OCR程序,百度接口,中文识别还可以: 开源地址:https://gitee.com/ren365880/QT-OCR 下载地址:https://download.csdn.net/download/ren365880/11015935

    QT开发的截图OCR程序,百度接口,中文识别还可以:
    在这里插入图片描述
    开源地址:https://gitee.com/ren365880/QT-OCR

    展开全文
  • exampleChina 桂林文粹OCR 开发工具包,包含语言 delphi7、vc6、VB6、C#2005、java 里面附带例子 注意需要文粹加密狗
  • Laravel开发-laravel-ocr .zip
  • 基于java开发ocr神经网络程序,含类,包的源代码
  • python开发传统蒙古文OCR

    千次阅读 2017-05-28 15:02:04
    所以跟其他语言的OCR不一。不过流程都差不多,灰度化,然后查找文字图片,然后进一步识别比对或机器学习,然后识别出相应文字。 1.灰度化 首先打开测试图片。放大两倍,然后二值化(灰度化)。灰度化很简单,...

    传统蒙古文的书写形式是从上到下,从左到有的形式。所以跟其他语言的OCR不一。不过流程都差不多,灰度化,然后查找文字图片,然后进一步识别比对或机器学习,然后识别出相应文字。

    1.灰度化


    首先打开测试图片。放大两倍,然后二值化(灰度化)。灰度化很简单,代码如下:

    import os
    import cv2
    import numpy as np
    import matplotlib.pyplot as plt
     
    base_dir = "C:/Users/AyonA333/Desktop/"
    path_test_image = os.path.join(base_dir, "data.png")
    image_color = cv2.imread(path_test_image)
    new_shape = (image_color.shape[1], image_color.shape[0])
    image_color = cv2.resize(image_color, new_shape)
    image = cv2.cvtColor(image_color, cv2.COLOR_BGR2GRAY)
    adaptive_threshold = cv2.adaptiveThreshold(
        image,
        255,
        cv2.ADAPTIVE_THRESH_GAUSSIAN_C,\
        cv2.THRESH_BINARY_INV, 11, 2)
    
    cv2.imshow('binary image', adaptive_threshold)
    cv2.waitKey(0)
    


    2.垂直分割

    horizontal_sum = np.sum(adaptive_threshold, axis=0)
    plt.plot(horizontal_sum, range(horizontal_sum.shape[0]))
    plt.gca().invert_yaxis()
    plt.show()

    二值化以后图片成为一个矩阵,所以每列相加以后可以大概的能知道每列的具体范围,方便于切割每列文字。python的num的有关矩阵的相加如下:


    计算出来的值用matplotlib显示出来后:


    3.垂直每列文字切割

    def extract_peek_ranges_from_array(array_vals, minimun_val=1000, minimun_range=2):
        start_i = None
        end_i = None
        peek_ranges = []
        for i, val in enumerate(array_vals):
            if val > minimun_val and start_i is None:
                start_i = i
            elif val > minimun_val and start_i is not None:
                pass
            elif val < minimun_val and start_i is not None:
                end_i = i
                if end_i - start_i >= minimun_range:
                    peek_ranges.append((start_i, end_i))
                start_i = None
                end_i = None
            elif val < minimun_val and start_i is None:
                pass
            else:
                raise ValueError("cannot parse this case...")
        return peek_ranges
    
    peek_ranges = extract_peek_ranges_from_array(horizontal_sum)
    
    line_seg_adaptive_threshold = np.copy(adaptive_threshold)
    for i, peek_range in enumerate(peek_ranges):
        x = peek_range[0]
        y = 0
        w = peek_range[1]
        h = line_seg_adaptive_threshold.shape[0]
        pt1 = (x, y)
        pt2 = (x + w, y + h)
        cv2.rectangle(line_seg_adaptive_threshold, pt1, pt2, 255)
    cv2.imshow('line image', line_seg_adaptive_threshold)
    cv2.waitKey(0)
    
    vertical_peek_ranges2d = []
    for peek_range in peek_ranges:
    	start_x = 0
    	end_x = line_seg_adaptive_threshold.shape[0]
    	line_img = adaptive_threshold[start_x:end_x,peek_range[0]:peek_range[1]]
    	#cv2.imshow('binary image', line_img)
    	vertical_sum = np.sum(line_img, axis=1)
    	#plt.plot(vertical_sum, range(vertical_sum.shape[0]))
    	#plt.gca().invert_yaxis()
    	#plt.show()
    	vertical_peek_ranges = extract_peek_ranges_from_array(vertical_sum,minimun_val=2,minimun_range=1)
    	vertical_peek_ranges2d.append(vertical_peek_ranges)
    print(vertical_peek_ranges2d)
    

    显示切割出来的一列如下:


    4.切割每个列的文字


    显示一个列的矩阵值如上,按矩阵的横向最小值来分割出每列的文字。
    cnt = 1
    color = (0, 0, 255)
    for i, peek_range in enumerate(peek_ranges):
        for vertical_range in vertical_peek_ranges2d[i]:
            x = peek_range[0]
            y = vertical_range[0]
            w = peek_range[1] - x
            h = vertical_range[1] - y
            #print(str(x)+'-'+str(y)+'-'+str(w)+'-'+str(h))
            patch = adaptive_threshold[y:y+h,x:x+w]
            cv2.imwrite('C:/Users/AyonA333/Desktop/testpic/'+'_%d' %cnt+'.jpg', patch)
            cnt += 1
            pt1 = (x, y)
            pt2 = (x + w, y + h)
            cv2.rectangle(image_color, pt1, pt2, color)
    cv2.imshow('char image', image_color)
    cv2.waitKey(0)
    保存到testpic文件夹里。
    这样第二部可以做深度学习训练了。

    学习交流QQ/Wechat:286436416
    展开全文
  • c++ 与Halcon 联合开发OCR识别代码 WIN64位 Visual Studio 2015 Halcon12.0 配置
  • OCR VB6开发示例

    2013-04-12 22:44:32
    OCR识别技术代码示例,在文件夹中找到 AspriseOCR.dll、DevIL.dll、ILU.dll、AspriseVB.dll、VBWrapperNew.dll(这5文件);拷贝到 系统\WINDOWS\system32 文件夹下
  • 款基于java的OCR神经网络程序,经正版杀毒软件杀毒,可正常运行
  • Why? OCR(又叫光学字符识别)已经成为Python的一个常用工具。随着开源库Tesseract和Ocrad的出现,越来越多的程序员用OCR来编写自己的库文件和bot病毒。...开始之前,我们需要开发一个后端服务层来表示OCR引擎...

     

     

    Why?

    OCR(又叫光学字符识别)已经成为Python的一个常用工具。随着开源库Tesseract和Ocrad的出现,越来越多的程序员用OCR来编写自己的库文件和bot病毒。一个OCR的小例子,如用OCR直接从截图中提取文本,省去了重新键入的麻烦。

    更多Python视频、源码、资料加群683380553免费获取

    开始的步骤

    开始之前,我们需要开发一个后端服务层来表示OCR引擎的结果。这样你就可以用你喜欢的方式来向端用户表示你的结果。本文之后将会详细介绍。除此之外,我们还需要添加一点后端代码来生成HTML表格,以及一些使用这些API的前段代码。这部分本文没有讲,但是你可以参阅源代码。

    准备好开始吧!

    首先,需要安装一些依赖项。这个过程也是非常有趣的。

    本文已经在Ubuntu 14.04测试,但是12.x和13.x版本应该也可以。如果你用的是OSX系统,可以用VirtualBox,Docker(注意检查有没有包含Dockerfile和install guide),或者是DigitalOcean(推荐使用)来创建相应的环境。

    下载依赖项

    我们需要Tesseract及其所有依赖项,包括Leptonica及其他相关的包。

    注意:可以用_run.sh这个shell脚本来快速安装Leptonica和Tesseract的依赖包。如果这么做的话,可以直接跳到搭建Web服务器(跳转链接)部分。但是为了学习,如果你以前没有亲手构建过库文件的话,还是建议尝试一下。

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

     

    发生了什么?

    简单说,sudo apt-get update意思就是更新包列表。然后就能安装一些图像处理的包,如libtiff,libpng等等。除此之外,我们还需要安装Python 2.7,作为我们的编程语言,以及python-imaging库。

    说起图像,在将程序里面编辑图像之前我们还需要ImageMagick包。

    $ sudo apt-get install imagemagick
    

    构建Leptonica和Tesseract

    再说一遍,如果你用_run.sh脚本已经安装过,就可以直接跳到搭建Web服务器(跳转链接)部分。

    Leptonica

    现在,开始安装Leptonica。

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

     

    如果这是你第一次用tar的话,按照如下步骤操作:

    1. 用wget下载Leptonica的二进制文件

    2. 解压

    3. 用cd进入解压后的文件夹

    4. 运行autobuild和configure脚本安装

    5. 执行make命令build

    6. Build后安装

    7. 执行ldconfig创建相关的链接

    OK,Leptonica创建好了,接下来就是Tesseract了。

    Tesseract

    现在下载并安装Tesseract吧。

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

     

    此处构建了一个Leptonica的映像,这部分的详细信息参考Leptonica的解释。

    环境变量

    我们需要设置一个环境变量来访问Tesseract数据:

    $ export TESSDATA_PREFIX=/usr/local/share/
    

    Tesseract包

    最后安装一下Tesseract相关的语言包:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

     

    OK,Tesseract也安装好了,可以CLI来测试一下。更多的信息可以参考docs(超链接)。但是,我们还需要一个Python环境。所以,接下来安装一个能够接受以下两种请求的Flask服务器:

    1. 接受图像URL

    2. 能够对图像进行字符识别

    搭建Web服务器

    最有趣的事情来了!首先,我们需要构建一种通过Python和Tesseract交互的方式。我们可以使用popen,但是那不是python的风格。所以,我们可以使用一个非常小但是功能非常强大的Python包将Tesseract封装起来——pytesseract(超链接)。

    想要快点的话,就运行_app.sh脚本,否则,点击这里(超链接)获取代码/结构的模板,然后运行一下命令:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

     

    注意:Flask模板(有Real Python(超链接)维护)是一个获取简单的具有Python风格的服务器的非常棒的库。本文将它用来作为基本程序。点击这里(超链接)获取更多信息。

    安装OCR引擎

    现在,我们需要用pytesseract来创建一个类来读取图片。在flask_server目录下创建一个新的文件ocr.py,写入如下代码:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

     

    非常好!

    主方法process_image()的功能是锐化图像文本。

    现在,这个模块已经可以用了。

    可选项:为你的OCR引擎创建一个CLI工具

    做了这么多繁琐配置工作,让我们来创建一个CLI工具来调节一下心情吧。在flask_server目录下创建一个新的文件cli.py,写入如下代码:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

     

    非常简单。之后我们就能看到从我们的OCR引擎中输出到标准输出STDOUT上的文本了。执行python flask_server/cli.py来试一下吧。

    回到服务器

    既然我们已经安装好了OCR引擎,接下来该准备输出了。讲下面的代码加入到

    app.py文件:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

     

    确保引入的下列包是最新的:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

     

    最后,添加一行API版本号:

    _VERSION = 1 # API version
    

    从代码中可以看到,我们以PIL中Image文件对象的方式把JSON的响应传入引擎的process_image()方法中。并且,就目前而言,它只支持.jpg图片。

    注意:如果PIL包没有安装的话,可以用Pillow包来代替。PIL有一些问题还没有解决,Python社区对它的看法也不统一,详细情况可以自行Google。

    测试

    运行你的程序:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

     

    然后,在另外一个终端运行:

    $ curl -X POST http://localhost:5000/v1/ocr -d '{"image_url": "some_url"}' -H "Content-Type: application/json"
    

    例子

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

     

    前端

    现在后端OCR引擎的API已经准备好了,我们可以增加一个基本的前端来使用这些API,并将结果通过AJAX和jQuery添加到DOM中。这部分内容本文就不讲了,详见这里(超链接)。

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

     

    用下面的样本来测试一下:

    5分钟用Python搭建一个OCR服务器,可以直接截图中提取文本

     

    总结

    希望大家喜欢照片教程。

    展开全文
  • C#开发OCR识别程序源码

    热门讨论 2008-12-18 14:42:59
    使用C#开发OCR汉字识别技术基础源代码,可供大家学习和参考。
  • 再看 AspriseOCR - OCR应用开发

    千次阅读 2015-11-24 11:35:07
    我写这博文时间为 2015/11/24日,注意时间因为,网上很多文章时间上很久远,有的已经不能参考了 很多人面对从图片中识别文字或者数字0~9 A~Z 的时候都想网上查找相关的技术文章 我也找了很多,但是很可惜没有...
  • 档案OCR识别SDK开发

    千次阅读 2018-04-28 18:06:20
    档案OCR识别SDK软件简介 档案OCR识别SDK软件V12.0是种光学字符识别(OCR)软件开发包(OCR SDK);OCR SDK12.0为软件开发人员、系统集成商、数据加工商(BPO)、扫描仪、多功能一体机等硬件制造商(OEM),提供...
  • 编译自己的tess-two so 库,并合入自己的工程,用于android ocr 文字识别项目
  • 公文档案ocr识别软件开发包 转载▼ 公文OCR识别开发包软件简介 公文OCR识别开发包软件V12.0是种光学字符识别(OCR)软件开发包(OCR SDK);OCR SDK12.0为软件开发人员、系统集成商、数据加工商(BPO)、扫描...
  • OCR开发包开源软件

    千次阅读 2016-02-03 13:59:17
    Refer from ...原本由惠普开发的图像识别类库tesseract-ocr已经更新到2.04, 就是最近Google支持的那个OCR。原先是惠普写的,现在Open source了。 1.03版本以前是在sourceforge上发布,

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 18,323
精华内容 7,329
关键字:

自己开发一个ocr