精华内容
下载资源
问答
  • 选自Medium作者:Ajinkya Khalwadekar机器之心编译参与:Panda、蛋酱在机器...本文将帮助计算机视觉爱好者大致了解如何对文档图像中的文本进行识别。光学字符识别和手写文本识别是人工智能领域里非常经典的问题。...

    点击我爱计算机视觉标星,更快获取CVML新技术


    本文转载自机器之心。

    选自Medium

    作者:Ajinkya Khalwadekar机器之心编译参与:Panda、蛋酱
    在机器学习和计算机视觉领域,光学字符识别(OCR)和手写文本识别(HTR)长期以来都是人们研究的重要主题。本文将帮助计算机视觉爱好者大致了解如何对文档图像中的文本进行识别。
    光学字符识别和手写文本识别是人工智能领域里非常经典的问题。OCR 很简单,就是将文档照片或场景照片转换为机器编码的文本;而 HTR 就是对手写文本进行同样的操作。作者在文章中将这个问题分解成了一组更小型的问题,并制作了如下的流程图。ff1b17ecdaef326fda9a21510b37888a.png图 1.1:应用流程图 按文档边框裁剪图像 在图像处理中,通常需要对图像进行预先编辑,以便获得更好的表征。裁剪是图像编辑中最常用的操作之一,这可以移除图像中不需要的部分,也可以向图像添加所需的特征。你可以使用 OpenCV 来轻松地找到图像中文档的边缘,查找图像中文档边缘的最佳方法是使用阈值图像。OpenCV 提供了不同的阈值样式,这是由其函数的第 4 个参数决定的。在这个函数中,第一个参数是源图像,这应该是一张灰度图像;第二个参数是用于分类像素值的阈值;第三个参数是 maxVal,这是当像素值超过(有时是低于)阈值时所要给出的值。下面的代码将能帮助你找到阈值图像,然后确定文档边缘的轮廓,你可以将这些轮廓点与图像边缘进行比较,然后确定文档的边缘。
    # threshold image
    ret, thresh = cv2.threshold(imgray, 150, 255, 0)
    cv2.imwrite('thresh.jpg', thresh)
    # edge contours
    contours, hierarchy = cv2.findContours(thresh, 1, 2)
    检测和裁剪/分割文档中的所有词 在有约束的受控环境中进行词检测通常可以使用启发式方法实现,比如利用梯度信息或者这样的事实:文本通常会被分组成段落以及排列成直线的字符。但是,使用启发式方法是存在缺陷的,图像中很多不需要的区域也会被检测为词,所以我们可以使用 OpenCV 的 EAST(Efficient and Accurate Scene Text)检测器。可以参考 Adrian Rosebrock 写的 EAST 检测器相关文章:https://www.pyimagesearch.com/2018/08/20/opencv-text-detection-east-text-detector/ 然后再根据 Tom Hoag 分享的方法对其进行改进:https://medium.com/@tomhoag/opencv-text-detection-548950e3494c这种方法能以很高的准确度检测出手写文本以及机器打印的文本。检测出图像中的词之后,再将它们裁剪出来并将它们全部保存下来。 预处理词图像 应该怎么样对图像进行预处理?这完全取决于你接下来要做什么。如果想要分类手写的和机器打印的词,需要所有图像都处于灰度模式。为了将图像转换为灰度图像,还需要使用 OpenCV:
    imgray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
    这是手写词吗? 这是一个分类问题:确定一张特定图像中的词是「手写词」还是「机打词」。作者浏览了多篇文章和研究论文,发现支持向量机(SVM)是解决这一问题的最佳方案,然后使用了来自 sklearn 软件包的 SVM 分类器来完成这一任务。对于用于分类的数据集,作者提到了一个很好的手写词图像有标注数据集 IAM:http://www.fki.inf.unibe.ch/databases/iam-handwriting-database对于机器打印的词图像,作者收集了大约 2000 张词图像。下面是用于预测的特征: 

    1. 平均像素强度

    2. 像素强度的标准差

    3. Otsu 阈值

    4. 像素强度直方图中局部最大值的数量

    5. 属于像素强度上面的四分之一的像素的百分比

    6. 属于像素强度下面的四分之一的像素的百分比

     按照上面来看,所有特征都与图像的像素强度有关联。下一个问题是:如何找到像素强度?灰度图像的像素值就是像素的强度,同样也可以使用 OpenCV 和数学运算来完成这一任务。 使用 TensorFlow 的 HTR 这是本文所有问题中最具有挑战性的问题。在尝试了不同的解决方案之后(包括在手写字符数据集上重新训练 Tesseract),结果显示 Harald Scheidl 这篇文章的方法最佳:https://towardsdatascience.com/build-a-handwritten-text-recognition-system-using-tensorflow-2326a3487cd5作者使用了类似的方法,不过做了一些小修改,在这里使用了神经网络,由 5 个卷积神经网络(CNN)层、2 个循环神经网络(RNN)层和 1 个连接主义时间分类(CTC)层构成。用于训练这个神经网络的数据集是 IAM 数据集,但你也可以使用任何有标注的词图像数据集。7c8e4b522b6ffdec34522cf790e21585.png图 1.2:来自 Herald Scheidl 文章的示意图 CNN 层的输入是大小为 128×32 的灰度值图像。CNN 层的输出是一个序列,其包含 32 项,其中每一项都有 256 个特征。这些特征再进一步由 RNN 层处理,但是,某些特征已经表现出了与输入图像的特定高层面性质的高度相关性。01a041080dda491c8999f58a4f8e7f3b.png图 1.3:来自 Herald Scheidl 的文章的示意图 图 1.3 展示了处理一张包含文本「little」的图像时,可视化的 RNN 输出矩阵。最上面的图表中的矩阵包含了字符的分数,这些字符中的最后一项(第 80 个)是一个 CTC 空白标签。其它矩阵项,从上到下分别对应于如下字符:!」#&』()*+,-./0123456789:;?ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz 可以看到,大多数时间里,被预测的字符都刚好出现在它们在图像中的位置处(比如,你可以比较看看图像与图表中 i 的位置。只有最后一个字符 e 没有对齐。但这其实没有问题,因为 CTC 操作是无分割的,而且不在乎绝对位置。最下面的图表展示了字符 l、i、t、e 和 CTC 空白标签的分数,该文本可以轻松地被解码:我们只需要从每个时间步骤取出最可能的字符即可,这会构成所谓的最佳路径,然后我们丢弃重复的字符,最后丢弃所有空白,得到:「l—-ii—t-t—l-…-e」→「l—-i—t-t—l-…-e」→「little」。 更多有关如何实现这一方法的细节信息,请参看 Herald Scheidl 的文章。Tesseract(OCR) Tesseract 是目前最好的用于机器打印字符识别的开源 OCR 工具。Tesseract 支持 Unicode(UTF-8)字符集,可以识别超过 100 种语言,还包含多种输出支持,比如纯文本、PDF、TSV 等。但是为了得到更好的 OCR 结果,还必须提升提供给 Tesseract 的图像的质量。注意,在执行实际的 OCR 之前,Tesseract 会在内部执行多种不同的图像处理操作(使用 Leptonica 库)。通常它表现不错,但在某些情况下的效果却不够好,导致准确度显著下降。 在将图像传递给 Tesseract 之前,可以尝试以下图像处理技术,但具体使用哪些技术取决于你想要读取的图像: 

    1. 反转图像

    2. 重新缩放

    3. 二值化

    4. 移除噪声

    5. 旋转/调整倾斜角度

    6. 移除边缘

     所有这些操作都可以使用 OpenCV 或通过 Python 使用 numpy 实现。 简单总结一下,本文介绍了与 OCR 和 HTR 相关的一些问题和可能的解决方案。如果你想要真正理解,一定要亲自动手实现它们看看。原文链接:https://medium.com/@ajinkya.khalwadekar/building-ocr-and-handwriting-recognition-for-document-images-f7630ee95d46

    OCR交流群

    关注最新最前沿的OCR、HTR技术,扫码添加CV君拉你入群,(如已为CV君其他账号好友请直接私信)

    (请务必注明:OCR)

    c7230dca18d95525d75a118c2b275742.png

    喜欢在QQ交流的童鞋,可以加52CV官方QQ群805388940

    (不会时时在线,如果没能及时通过验证还请见谅)


    61372956327cfceed6e9c64263f96b44.png

    长按关注我爱计算机视觉

    展开全文
  • 本文将帮助计算机视觉爱好者大致了解如何对文档图像中的文本进行识别。 光学字符识别和手写文本识别是人工智能领域里非常经典的问题。OCR 很简单,就是将文档照片或场景照片转换为机器编码的文本...

    选自Medium

    作者:Ajinkya Khalwadekar机器之心编译
    参与:Panda、蛋酱

    在机器学习和计算机视觉领域,光学字符识别(OCR)和手写文本识别(HTR)长期以来都是人们研究的重要主题。本文将帮助计算机视觉爱好者大致了解如何对文档图像中的文本进行识别。

    光学字符识别和手写文本识别是人工智能领域里非常经典的问题。OCR 很简单,就是将文档照片或场景照片转换为机器编码的文本;而 HTR 就是对手写文本进行同样的操作。作者在文章中将这个问题分解成了一组更小型的问题,并制作了如下的流程图。

    如何构建识别图像中字符的自动程序?一文解读OCR与HTR

     

    图 1.1:应用流程图 按文档边框裁剪图像 在图像处理中,通常需要对图像进行预先编辑,以便获得更好的表征。裁剪是图像编辑中最常用的操作之一,这可以移除图像中不需要的部分,也可以向图像添加所需的特征。
    你可以使用 OpenCV 来轻松地找到图像中文档的边缘,查找图像中文档边缘的最佳方法是使用阈值图像。OpenCV 提供了不同的阈值样式,这是由其函数的第 4 个参数决定的。在这个函数中,第一个参数是源图像,这应该是一张灰度图像;第二个参数是用于分类像素值的阈值;第三个参数是 maxVal,这是当像素值超过(有时是低于)阈值时所要给出的值。
    下面的代码将能帮助你找到阈值图像,然后确定文档边缘的轮廓,你可以将这些轮廓点与图像边缘进行比较,然后确定文档的边缘。

    #thresholdimageret,thresh=cv2.threshold(imgray,150,255,0)cv2.imwrite('thresh.jpg',thresh)#edgecontourscontours,hierarchy=cv2.findContours(thresh,1,2)


    检测和裁剪/分割文档中的所有词 在有约束的受控环境中进行词检测通常可以使用启发式方法实现,比如利用梯度信息或者这样的事实:文本通常会被分组成段落以及排列成直线的字符。但是,使用启发式方法是存在缺陷的,图像中很多不需要的区域也会被检测为词,所以我们可以使用 OpenCV 的 EAST(Efficient and Accurate Scene Text)检测器。
    可以参考 Adrian Rosebrock 写的 EAST 检测器相关文章:https://www.pyimagesearch.com/2018/08/20/opencv-text-detection-east-text-detector/ 
    然后再根据 Tom Hoag 分享的方法对其进行改进:https://medium.com/@tomhoag/opencv-text-detection-548950e3494c
    这种方法能以很高的准确度检测出手写文本以及机器打印的文本。检测出图像中的词之后,再将它们裁剪出来并将它们全部保存下来。 预处理词图像 应该怎么样对图像进行预处理?这完全取决于你接下来要做什么。如果想要分类手写的和机器打印的词,需要所有图像都处于灰度模式。为了将图像转换为灰度图像,还需要使用 OpenCV:

    imgray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)


    这是手写词吗? 这是一个分类问题:确定一张特定图像中的词是「手写词」还是「机打词」。作者浏览了多篇文章和研究论文,发现支持向量机(SVM)是解决这一问题的最佳方案,然后使用了来自 sklearn 软件包的 SVM 分类器来完成这一任务。
    对于用于分类的数据集,作者提到了一个很好的手写词图像有标注数据集 IAM:http://www.fki.inf.unibe.ch/databases/iam-handwriting-database
    对于机器打印的词图像,作者收集了大约 2000 张词图像。下面是用于预测的特征:

    1. 平均像素强度

    2. 像素强度的标准差

    3. Otsu 阈值

    4. 像素强度直方图中局部最大值的数量

    5. 属于像素强度上面的四分之一的像素的百分比

    6. 属于像素强度下面的四分之一的像素的百分比

    按照上面来看,所有特征都与图像的像素强度有关联。下一个问题是:如何找到像素强度?
    灰度图像的像素值就是像素的强度,同样也可以使用 OpenCV 和数学运算来完成这一任务。 使用 TensorFlow 的 HTR 这是本文所有问题中最具有挑战性的问题。在尝试了不同的解决方案之后(包括在手写字符数据集上重新训练 Tesseract),结果显示 Harald Scheidl 这篇文章的方法最佳:https://towardsdatascience.com/build-a-handwritten-text-recognition-system-using-tensorflow-2326a3487cd5
    作者使用了类似的方法,不过做了一些小修改,在这里使用了神经网络,由 5 个卷积神经网络(CNN)层、2 个循环神经网络(RNN)层和 1 个连接主义时间分类(CTC)层构成。用于训练这个神经网络的数据集是 IAM 数据集,但你也可以使用任何有标注的词图像数据集。

    如何构建识别图像中字符的自动程序?一文解读OCR与HTR

     

    图 1.2:来自 Herald Scheidl 文章的示意图 CNN 层的输入是大小为 128×32 的灰度值图像。CNN 层的输出是一个序列,其包含 32 项,其中每一项都有 256 个特征。这些特征再进一步由 RNN 层处理,但是,某些特征已经表现出了与输入图像的特定高层面性质的高度相关性。

    如何构建识别图像中字符的自动程序?一文解读OCR与HTR

     

    图 1.3:来自 Herald Scheidl 的文章的示意图 图 1.3 展示了处理一张包含文本「little」的图像时,可视化的 RNN 输出矩阵。最上面的图表中的矩阵包含了字符的分数,这些字符中的最后一项(第 80 个)是一个 CTC 空白标签。其它矩阵项,从上到下分别对应于如下字符:!」#&』()*+,-./0123456789:;?ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz 可以看到,大多数时间里,被预测的字符都刚好出现在它们在图像中的位置处(比如,你可以比较看看图像与图表中 i 的位置。只有最后一个字符 e 没有对齐。但这其实没有问题,因为 CTC 操作是无分割的,而且不在乎绝对位置。最下面的图表展示了字符 l、i、t、e 和 CTC 空白标签的分数,该文本可以轻松地被解码:我们只需要从每个时间步骤取出最可能的字符即可,这会构成所谓的最佳路径,然后我们丢弃重复的字符,最后丢弃所有空白,得到:「l—-ii—t-t—l-…-e」→「l—-i—t-t—l-…-e」→「little」。 更多有关如何实现这一方法的细节信息,请参看 Herald Scheidl 的文章。
    Tesseract(OCR) Tesseract 是目前最好的用于机器打印字符识别的开源 OCR 工具。Tesseract 支持 Unicode(UTF-8)字符集,可以识别超过 100 种语言,还包含多种输出支持,比如纯文本、PDF、TSV 等。但是为了得到更好的 OCR 结果,还必须提升提供给 Tesseract 的图像的质量。
    注意,在执行实际的 OCR 之前,Tesseract 会在内部执行多种不同的图像处理操作(使用 Leptonica 库)。通常它表现不错,但在某些情况下的效果却不够好,导致准确度显著下降。 在将图像传递给 Tesseract 之前,可以尝试以下图像处理技术,但具体使用哪些技术取决于你想要读取的图像:

    1. 反转图像

    2. 重新缩放

    3. 二值化

    4. 移除噪声

    5. 旋转/调整倾斜角度

    6. 移除边缘

    所有这些操作都可以使用 OpenCV 或通过 Python 使用 numpy 实现。 简单总结一下,本文介绍了与 OCR 和 HTR 相关的一些问题和可能的解决方案。如果你想要真正理解,一定要亲自动手实现它们看看。
    原文链接:https://medium.com/@ajinkya.khalwadekar/building-ocr-and-handwriting-recognition-for-document-images-f7630ee95d46

    展开全文
  • 本文将帮助计算机视觉爱好者大致了解如何对文档图像中的文本进行识别。光学字符识别和手写文本识别是人工智能领域里非常经典的问题。OCR 很简单,就是将文档照片或场景照片转换为机器编码的文本;而 HTR 就...

    选自Medium

    作者:Ajinkya Khalwadekar机器之心编译参与:Panda、蛋酱

    在机器学习和计算机视觉领域,光学字符识别(OCR)和手写文本识别(HTR)长期以来都是人们研究的重要主题。本文将帮助计算机视觉爱好者大致了解如何对文档图像中的文本进行识别。

    光学字符识别和手写文本识别是人工智能领域里非常经典的问题。OCR 很简单,就是将文档照片或场景照片转换为机器编码的文本;而 HTR 就是对手写文本进行同样的操作。作者在文章中将这个问题分解成了一组更小型的问题,并制作了如下的流程图。

    daa4424143375a5cb098f19a583987d9.png

    图 1.1:应用流程图 按文档边框裁剪图像 在图像处理中,通常需要对图像进行预先编辑,以便获得更好的表征。裁剪是图像编辑中最常用的操作之一,这可以移除图像中不需要的部分,也可以向图像添加所需的特征。
    你可以使用 OpenCV 来轻松地找到图像中文档的边缘,查找图像中文档边缘的最佳方法是使用阈值图像。OpenCV 提供了不同的阈值样式,这是由其函数的第 4 个参数决定的。在这个函数中,第一个参数是源图像,这应该是一张灰度图像;第二个参数是用于分类像素值的阈值;第三个参数是 maxVal,这是当像素值超过(有时是低于)阈值时所要给出的值。
    下面的代码将能帮助你找到阈值图像,然后确定文档边缘的轮廓,你可以将这些轮廓点与图像边缘进行比较,然后确定文档的边缘。

    # threshold imageret, thresh = cv2.threshold(imgray, 150, 255, 0)cv2.imwrite('thresh.jpg', thresh)# edge contourscontours, hierarchy = cv2.findContours(thresh, 1, 2)

    检测和裁剪/分割文档中的所有词 在有约束的受控环境中进行词检测通常可以使用启发式方法实现,比如利用梯度信息或者这样的事实:文本通常会被分组成段落以及排列成直线的字符。但是,使用启发式方法是存在缺陷的,图像中很多不需要的区域也会被检测为词,所以我们可以使用 OpenCV 的 EAST(Efficient and Accurate Scene Text)检测器。
    可以参考 Adrian Rosebrock 写的 EAST 检测器相关文章:https://www.pyimagesearch.com/2018/08/20/opencv-text-detection-east-text-detector/
    然后再根据 Tom Hoag 分享的方法对其进行改进:https://medium.com/@tomhoag/opencv-text-detection-548950e3494c
    这种方法能以很高的准确度检测出手写文本以及机器打印的文本。检测出图像中的词之后,再将它们裁剪出来并将它们全部保存下来。 预处理词图像 应该怎么样对图像进行预处理?这完全取决于你接下来要做什么。如果想要分类手写的和机器打印的词,需要所有图像都处于灰度模式。为了将图像转换为灰度图像,还需要使用 OpenCV:

    imgray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)

    这是手写词吗? 这是一个分类问题:确定一张特定图像中的词是「手写词」还是「机打词」。作者浏览了多篇文章和研究论文,发现支持向量机(SVM)是解决这一问题的最佳方案,然后使用了来自 sklearn 软件包的 SVM 分类器来完成这一任务。
    对于用于分类的数据集,作者提到了一个很好的手写词图像有标注数据集 IAM:http://www.fki.inf.unibe.ch/databases/iam-handwriting-database
    对于机器打印的词图像,作者收集了大约 2000 张词图像。下面是用于预测的特征:

    1. 平均像素强度

    2. 像素强度的标准差

    3. Otsu 阈值

    4. 像素强度直方图中局部最大值的数量

    5. 属于像素强度上面的四分之一的像素的百分比

    6. 属于像素强度下面的四分之一的像素的百分比

    按照上面来看,所有特征都与图像的像素强度有关联。下一个问题是:如何找到像素强度?
    灰度图像的像素值就是像素的强度,同样也可以使用 OpenCV 和数学运算来完成这一任务。 使用 TensorFlow 的 HTR 这是本文所有问题中最具有挑战性的问题。在尝试了不同的解决方案之后(包括在手写字符数据集上重新训练 Tesseract),结果显示 Harald Scheidl 这篇文章的方法最佳:https://towardsdatascience.com/build-a-handwritten-text-recognition-system-using-tensorflow-2326a3487cd5
    作者使用了类似的方法,不过做了一些小修改,在这里使用了神经网络,由 5 个卷积神经网络(CNN)层、2 个循环神经网络(RNN)层和 1 个连接主义时间分类(CTC)层构成。用于训练这个神经网络的数据集是 IAM 数据集,但你也可以使用任何有标注的词图像数据集。

    383fb612f6d695f85adb7aa573aafdd5.png

    图 1.2:来自 Herald Scheidl 文章的示意图 CNN 层的输入是大小为 128×32 的灰度值图像。CNN 层的输出是一个序列,其包含 32 项,其中每一项都有 256 个特征。这些特征再进一步由 RNN 层处理,但是,某些特征已经表现出了与输入图像的特定高层面性质的高度相关性。

    843860c7a095591488d1cc6ba53d7218.png

    图 1.3:来自 Herald Scheidl 的文章的示意图 图 1.3 展示了处理一张包含文本「little」的图像时,可视化的 RNN 输出矩阵。最上面的图表中的矩阵包含了字符的分数,这些字符中的最后一项(第 80 个)是一个 CTC 空白标签。其它矩阵项,从上到下分别对应于如下字符:!」#&』()*+,-./0123456789:;?ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz 可以看到,大多数时间里,被预测的字符都刚好出现在它们在图像中的位置处(比如,你可以比较看看图像与图表中 i 的位置。只有最后一个字符 e 没有对齐。但这其实没有问题,因为 CTC 操作是无分割的,而且不在乎绝对位置。最下面的图表展示了字符 l、i、t、e 和 CTC 空白标签的分数,该文本可以轻松地被解码:我们只需要从每个时间步骤取出最可能的字符即可,这会构成所谓的最佳路径,然后我们丢弃重复的字符,最后丢弃所有空白,得到:「l—-ii—t-t—l-…-e」→「l—-i—t-t—l-…-e」→「little」。 更多有关如何实现这一方法的细节信息,请参看 Herald Scheidl 的文章。Tesseract(OCR) Tesseract 是目前最好的用于机器打印字符识别的开源 OCR 工具。Tesseract 支持 Unicode(UTF-8)字符集,可以识别超过 100 种语言,还包含多种输出支持,比如纯文本、PDF、TSV 等。但是为了得到更好的 OCR 结果,还必须提升提供给 Tesseract 的图像的质量。
    注意,在执行实际的 OCR 之前,Tesseract 会在内部执行多种不同的图像处理操作(使用 Leptonica 库)。通常它表现不错,但在某些情况下的效果却不够好,导致准确度显著下降。 在将图像传递给 Tesseract 之前,可以尝试以下图像处理技术,但具体使用哪些技术取决于你想要读取的图像:

    1. 反转图像

    2. 重新缩放

    3. 二值化

    4. 移除噪声

    5. 旋转/调整倾斜角度

    6. 移除边缘

    所有这些操作都可以使用 OpenCV 或通过 Python 使用 numpy 实现。 简单总结一下,本文介绍了与 OCR 和 HTR 相关的一些问题和可能的解决方案。如果你想要真正理解,一定要亲自动手实现它们看看。
    原文链接:https://medium.com/@ajinkya.khalwadekar/building-ocr-and-handwriting-recognition-for-document-images-f7630ee95d46

    展开全文
  • 解读少儿编程

    2020-03-31 15:23:13
    这里自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、...

        少儿编程起源于美国,2009年微软研究院发布了一款xbox360游戏Kodu,其目的就是希望通过游戏来帮助小朋友们编程。微软从2011年开始每年都会举办一场Kodu Cup开发者大会,并设置奖金来增加儿童参与Kodu编程的积极性。此外微软还用Minecraft(我的世界)来教少年儿童学习编程。
        非营利组织Code.org®在2013年推出了宣传计算机科学的视频,每年都会组织“编程一小时”的活动,为所有人提供学习计算机的机会。苹果、微软、谷歌等科技巨头也参与与举办类似活动。
        少儿编程目前的学习方式主要分了两类:图形化编程和代码编程。图形化编程的主要模式就是由麻省理工学院开发的scratch;代码编程的模式有Python、C++。Python是人工智能的基础,目前信息学奥赛的主要语言是C和C++。
        少儿编程的目的还是在于提高少儿的思维能力,提升少儿的创造力。
        目前主流的少儿编程的学习阶段分为三个,一个是小学阶段以游戏方式为主的学习方式;二是初中阶段以学习高级程序语言的基础为主;三是高中阶段以高级程序语言为基础学习算法和了解人工智能方面的知识。每个阶段需要的学习时间不宜过长,可以适当的通过引导学习的方式入门,主要还是少儿自我学习为主。培养孩子的思维和创造力不是只有学习少儿编程一种方式,家长需要理性看待每个阶段学习的方式,一定要思考学习的目的和必要性。

    展开全文
  • 解读论文写作与发表策略助您成功发表关注论文离不了对参考文献的引用,Endnote在文献撰写中发挥着重要作用。下面我们介绍一些在文章撰写中常用的Endnote功能。1插入和删除参考文献插入参考文献,可以根据在Endnote...
  • BERT模型实战之多文本分类(附源码)

    万次阅读 多人点赞 2019-03-21 11:00:36
    BERT模型也出来很久了,之前看了论文学习过它的大致模型(可以参考前些日子的笔记NLP大杀器BERT模型解读),但是一直有杂七杂八的事拖着没有具体去实现过真实效果如何。今天就趁机来动手实战,顺便复现一下...
  • Cloud VR论文解读

    2020-12-02 17:10:07
    这里自定义目录标题引入Coterie: Exploiting Frame Similarity to Enable High-Quality Multiplayer VR on Commodity Mobile Devices欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成...
  • 这里自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、...
  • CVPR2019之GCNet解读

    万次阅读 2019-07-20 22:40:20
    这里自定义目录标题新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一...
  • 殊不知,教案只是解读教材和备课的其中一个环节,教材文本的阅读也仅仅是对教材的显性解读。 我们具体来看看于老师在如何解读人教版小学语文课本第八册《全神贯注》这篇课文的,从于老师的叙述中,我相信老师们对...
  • 提示:文章完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录前言一、pandas是什么?二、使用步骤1.引入库2.读入数据总结标题学习内容:学习时间:学习产出:欢迎使用Markdown编辑器新的改变功能...
  • NLP Bert 文本分类

    2020-06-27 19:01:22
    BERT模型也出来很久了,之前看了论文学习过它的大致模型(可以参考前些日子的笔记NLP大杀器BERT模型解读),但是一直有杂七杂八的事拖着没有具体去实现过真实效果如何。今天就趁机来动手实战,顺便复现一下...
  • 这里自定义目录标题ViVo: Visibility-Aware Mobile Volumetric Video Streaming欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的...
  • 这里自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、...
  • 这里自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、...
  • 这里自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、...
  • 这里自定义目录标题摘要MTMCT与ReID介绍目的贡献试验新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容...
  • 这里自定义目录标题回顾部分损失函数Softmax Loss功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居...
  • 这里自定义目录标题在开头文章简介模型介绍目标一:部分图片与词组作对应欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片...
  •  1、关于提高教师解读文本和执教语文课堂的能力。会议上,有关专家提到了应该加强对经典篇目的解读,这对我们是有益的启发。经典篇目由于长期被教育名家研读、分析,似乎已经没有多少可以挖掘的东西了。但是,随着...
  • 在介绍如何进行csv读写的操作之前,务必先来了解一下csv是什么文件,以下是wikipedia关于csv的...纯文本意味着该文件是一个字符序列,不含必须像二进制数字那样被解读的数据。CSV文件由任意数目的记录组成,记录间以...
  • 本场 Chat 首先带领大家了解正则表达式,然后以一些真实的例子解读我们该如何写正则表达式。本场 Chat 您将学到如下内容: 了解正则表达式 了解正则表达式的基础语法和高级语法 揭秘正则表达式引擎的运作方式 详解...
  • 放大缩小_缩小与放大

    2021-01-13 05:38:47
    王后带你决战高考语文图源网,侵删联谈到语文知识和语文思维如何体现在一个语篇文本中,我以杨振声先生的《书房的窗子》为例,在研究生的课堂上做了解读和分析。针对其中“月光”的一部分文字,我提了一个问题。...
  • Android仿支付宝9.5芝麻信用分仪表盘

    千次阅读 热门讨论 2016-01-23 23:21:07
    不过那个是芝麻信用分解读,很多人以为是仪表盘,所以去下载,结果不言而喻,在此非常抱歉,现在想着来一个这个版本的仪表盘,不说完全一模一样,只是为了猜测支付宝在做这个的时候是如何设计的,在此记录一下 ...
  • 谈礼貌的评课稿.doc

    2021-01-18 17:48:07
    根据说理文的特点以及对文本的深入解读,薛老师确定了本课的主要教学内容:1.学习“引用”的说理方法;2.学习“以事说理”的段落结构;3.运用“引用”和“以事说理”的方法进行说训练。这几项教学内容都指向了语文...
  • 如何写Java文档注释(Java Doc Comments) 注释也很重要啊,菜的抠脚的我,每次都是写完代码后再补充注释,哈哈哈。。。 GitHub及Git使用 如何选择开源许可证? from 阮一峰的网络日志 原文链接:...
  • 《C#开发实例大全(基础卷)》筛选、汇集了C#开发从基础知识到高级应用各个层面约600个实例及源代码,每个实例都按实例说明、关键技术、设计过程、详尽注释、秘笈心法的顺序进行了分析解读。全书分6篇共25章,主要...
  • 由Google-DeepMind公司开发的AlphaGo程序击败了人类高级选手樊麾,成为第一个无需让子即可在19路棋盘上击败围棋职业棋手的计算机围棋程序,并进了历史,论文发表在国际顶级期刊《Science》上 2016.3 透过自我...
  • Paul Graham:了一万六千字告诉你,如何融资.epub Perl 程序员应该知道的事.epub PHP 5.6.x 版本迁移至 PHP 7.0.x 版本.epub PHP 最佳实践(译).epub PHP7革新与性能优化.epub PHPUnit5.0中文手册.epub PHP之道...

空空如也

空空如也

1 2
收藏数 34
精华内容 13
关键字:

如何写文本解读