2016-12-24 17:18:25 u010402786 阅读数 11410

  针对模糊图像的处理,个人觉得主要分两条路,一种是自我激发型,另外一种属于外部学习型。接下来我们一起学习这两条路的具体方式。

第一种 自我激发型

  基于图像处理的方法,如图像增强和图像复原,以及曾经很火的超分辨率算法。都是在不增加额外信息的前提下的实现方式。
  
1. 图像增强

  图像增强是图像预处理中非常重要且常用的一种方法,图像增强不考虑图像质量下降的原因,只是选择地突出图像中感兴趣的特征,抑制其它不需要的特征,主要目的就是提高图像的视觉效果。先上一张示例图:
  
  这里写图片描述
  
  图像增强中常见的几种具体处理方法为:

  1. 直方图均衡

      在图像处理中,图像直方图表示了图像中像素灰度值的分布情况。为使图像变得清晰,增大反差,凸显图像细节,通常希望图像灰度的分布从暗到亮大致均匀。直方图均衡就是把那些直方图分布不均匀的图像(如大部分像素灰度集中分布在某一段)经过一种函数变换,使之成一幅具有均匀灰度分布的新图像,其灰度直方图的动态范围扩大。用于直方均衡化的变换函数不是统一的,它是输入图像直方图的积分,即累积分布函数。

  2. 灰度变换

      灰度变换可使图像动态范围增大,对比度得到扩展,使图像清晰、特征明显,是图像增强的重要手段之一。它主要利用图像的点运算来修正像素灰度,由输入像素点的灰度值确定相应输出像素点的灰度值,可以看作是“从像素到像素”的变换操作,不改变图像内的空间关系。像素灰度级的改变是根据输入图像f(x,y)灰度值和输出图像g(x,y)灰度值之间的转换函数g(x,y)=T[f(x,y)]进行的。
      灰度变换包含的方法很多,如逆反处理、阈值变换、灰度拉伸、灰度切分、灰度级修正、动态范围调整等。

  3. 图像平滑

      在空间域中进行平滑滤波技术主要用于消除图像中的噪声,主要有邻域平均法、中值滤波法等等。这种局部平均的方法在削弱噪声的同时,常常会带来图像细节信息的损失。
      邻域平均,也称均值滤波,对于给定的图像f(x,y)中的每个像素点(x,y),它所在邻域S中所有M个像素灰度值平均值为其滤波输出,即用一像素邻域内所有像素的灰度平均值来代替该像素原来的灰度。
      中值滤波,对于给定像素点(x,y)所在领域S中的n个像素值数值{f1,f2,…,fn},将它们按大小进行有序排列,位于中间位置的那个像素数值称为这n个数值的中值。某像素点中值滤波后的输出等于该像素点邻域中所有像素灰度的中值。中值滤波是一种非线性滤波,运算简单,实现方便,而且能较好的保护边界。

  4. 图像锐化

      采集图像变得模糊的原因往往是图像受到了平均或者积分运算,因此,如果对其进行微分运算,就可以使边缘等细节信息变得清晰。这就是在空间域中的图像锐化处理,其的基本方法是对图像进行微分处理,并且将运算结果与原图像叠加。从频域中来看,锐化或微分运算意味着对高频分量的提升。常见的连续变量的微分运算有一阶的梯度运算、二阶的拉普拉斯算子运算,它们分别对应离散变量的一阶差分和二阶差分运算。

2. 图像复原

  这里写图片描述
  
  其目标是对退化(传播过程中的噪声啊,大气扰动啊好多原因)的图像进行处理,尽可能获得未退化的原始图像。如果把退化过程当一个黑匣子(系统H),图片经过这个系统变成了一个较烂的图。这类原因可能是光学系统的像差或离焦、摄像系统与被摄物之间的相对运动、电子或光学系统的噪声和介于摄像系统与被摄像物间的大气湍流等。图像复原常用二种方法。当不知道图像本身的性质时,可以建立退化源的数学模型,然后施行复原算法除去或减少退化源的影响。当有了关于图像本身的先验知识时,可以建立原始图像的模型,然后在观测到的退化图像中通过检测原始图像而复原图像。
  
3. 图像超分辨率  
  一张图我们想脑补细节信息好难,但是相似的多幅图我们就能互相脑洞了。所以,我们可以通过一系列相似的低分辨图来共同脑补出一张高清晰图啊,有了这一张犯罪人的脸,我就可以画通缉令了啊。。。
  超分辨率复原技术的目的就是要在提高图像质量的同时恢复成像系统截止频率之外的信息,重建高于系统分辨率的图像。继续说超分辨,它其实就是根据多幅低质量的图片间的关系以及一些先验知识来重构一个高分辨的图片。示例图如下:
这里写图片描述

第二种 外部学习型

  外部学习型,就如同照葫芦画瓢一样的道理。其算法主要是深度学习中的卷积神经网络,我们在待处理信息量不可扩充的前提下(即模糊的图像本身就未包含场景中的细节信息),可以借助海量的同类数据或相似数据训练一个神经网络,然后让神经网络获得对图像内容进行理解、判断和预测的功能,这时候,再把待处理的模糊图像输入,神经网络就会自动为其添加细节,尽管这种添加仅仅是一种概率层面的预测,并非一定准确。

  本文介绍一种在灰度图像复原成彩色RGB图像方面的代表性工作:《全局和局部图像的联合端到端学习图像自动着色并且同时进行分类》。利用神经网络给黑白图像上色,使其变为彩色图像。稍作解释,黑白图像,实际上只有一个通道的信息,即灰度信息。彩色图像,则为RGB图像(其他颜色空间不一一列举,仅以RGB为例讲解),有三个通道的信息。彩色图像转换为黑白图像极其简单,属于有损压缩数据;反之则很难,因为数据不会凭空增多。

  搭建一个神经网络,给一张黑白图像,然后提供大量与其相同年代的彩色图像作为训练数据(色调比较接近),然后输入黑白图像,人工智能按照之前的训练结果为其上色,输出彩色图像,先来看一张效果图:
  这里写图片描述

  1. 本文工作
    •  用户无干预的灰度图像着色方法。
    •  一个新颖的端到端网络,联合学习图像的全局和局部特征。
    •  一种利用分类标签提高性能的学习方法。
    •  基于利用全局特征的风格转换技术。
    •  通过用户研究和许多不同的例子深入评估模型,包括百年的黑白照片。

  2. 着色框架
      
      模型框架包括四个主要组件:低级特征提取网络,中级特征提取网络,全局特征提取网络和着色网络。 这些部件都以端对端的方式紧密耦合和训练。 模型的输出是图像的色度,其与亮度融合以形成输出图像。
               这里写图片描述

  3. 与另外两个工作对比

    • Gustav Larsson, Michael Maire, and Gregory Shakhnarovich. Learning Representations for Automatic Colorization. In ECCV 2016.
    •Richard Zhang, Phillip Isola, and Alexei A. Efros. Colorful Image Colorization. In ECCV 2016.

这里写图片描述

参考文献:

网页:
http://hi.cs.waseda.ac.jp/~iizuka/projects/colorization/extra.html

代码:
https://github.com/satoshiiizuka/siggraph2016_colorization

论文2:
http://richzhang.github.io/colorization/

在线demo:
http://demos.algorithmia.com/colorize-photos/

2018-01-06 14:28:40 qq583357467 阅读数 1821

机器学习、人工智能及图像处理学习提纲

原文
人工智能和机器学习很火,图像处理也很火,在竞争如此激烈的领域中想要取得一定的成绩,就必然要求长期的学习。究竟要学习些什么? 半路出身的我也不是很明确,简要列举几个方面算是自己的学习提纲:

1. 编程技能

两三本编程的书是要熟悉的,包括python、tensorflow、opencv等,后面应用到的编程技能时再做补充

2. 理论基础

机器学习,统计机器学习,deep learning,概率图模型,这些书都需要学么?实话说,我也不知道,反正都得慢慢看

3. 前沿论文

前沿论文必须是一个搞科研的人的茶饭(不是酒肉),看的太少就会营养不良,吃的太多也会消化不了。看论文犹如吃饭一样,每天都看,细嚼慢咽,品出茶饭滋味胜酒肉。

4. 研究价值和社会贡献

机器学习、人工智能处于技术方法层面,而对于做技术的人而言,避而不谈社会价值及研究意义容易形成闭门造车,很难做出亮点,做出新意,也不容易获得项目资助及领导肯定。另外一方面,国家富强也需要研究者在国家政治、经济、文化诸多方面做出贡献(比如经济实力、科技实力、国防实力、综合国力、国防军事、经济能源、人民健康、环境美化、人民对美好生活的向往)。响应国家号召,将机器学习、人工智能学习好、研究透,进一步结合关键性具体问题深入研究应用才是正确的方向。

正是,路漫漫其修远兮,吾将上下而求索。

2017-12-20 15:19:04 iliangwei0 阅读数 4162

Python下的彩色图像信噪比计算公式
在进行图像处理的实验过程中,为了偷懒,喜欢用matlab计算信噪比。一方面简单,另一方面可以核对C得到的数据。然后matlab的体积太巨巨巨巨大,从而转向了python。当然,在这个年代也是很火的一门语言。开始吧,不说废话了。
本代码块基于python3.6

from PIL import Image
import numpy
import math
import matplotlib.pyplot as plt
#导入你要测试的图像
im = numpy.array (Image.open ('lena512color.bmp'),'f')#将图像1数据转换为float型
im2 = numpy.array (Image.open ('lenatest.bmp'),'f')#将图像2数据转换为float型
print (im.shape,im.dtype)
#图像的行数
height = im.shape[0]
#图像的列数
width = im.shape[1]


#提取R通道
r = im[:,:,0]
#提取g通道
g = im[:,:,1]
#提取b通道
b = im[:,:,2]
#打印g通道数组
#print (g)
#图像1,2各自分量相减,然后做平方;
R = im[:,:,0]-im2[:,:,0]
G = im[:,:,1]-im2[:,:,1]
B = im[:,:,2]-im2[:,:,2]
#做平方
mser = R*R
mseg = G*G
mseb = B*B
#三个分量差的平方求和
SUM = mser.sum() + mseg.sum() + mseb.sum()
MSE = SUM / (height * width * 3)
PSNR = 10*math.log ( (255.0*255.0/(MSE)) ,10)

print (PSNR)
im = numpy.array (Image.open ('lena512color.bmp'))#无符号型
im2 = numpy.array (Image.open ('lena_12_13_0.bmp'))
plt.subplot (121)#窗口1
plt.title('origin image')
plt.imshow(im,plt.cm.gray)

plt.subplot(122)#窗口2
plt.title('rebuilt image')
plt.imshow(im2,plt.cm.gray)
plt.show()
**#技术比较辣鸡,一个比较笨拙的办法**

测试例子

2018-01-15 21:44:46 JerryXjj 阅读数 2654

最近,微信小游戏“跳一跳”很火,看着朋友圈里别人晒出的图,我这个手残党十分不是滋味,于是我就想,能不能利用图像处理,做一个全自动的外挂呢。说罢,直接动手。

Ps:以下内容的部分步骤在实验过程中我是使用了多种方案进行比较的,限于篇幅,这里只给出表现较好的一种。最终的成品识别的结果并不是太精确,在下才疏学浅,还望各位大佬不吝赐教。

关于控制方面,由于这个程序是运行在PC机上的,我没有移植到手机端,为了控制微信的游戏,我使用USB线连接电脑和安卓手机,然后使用了一个可供电脑控制手机的软件,Total Control。这样,程序透过Total Control就可以实现在手机上模拟点击的目的。

关于程序语言的选择,我使用的是C++语言,利用了OpenCV库作图像处理,WindowsAPI模拟鼠标点击。

以下是算法分析。

首先是明确输入输出,输入很清楚,那就是游戏画面。至于输出,玩过“跳一跳”的人都知道,操作者只需要控制按下的时间长短,无需其他操作,所以算法的输出就是按下到松开的时间间隔。

图片1

其次是时间的计算,网上已经有很多大神分析过了,点击间隔时间T与跳跃的距离L近似为线性关系。这里直接套用这个结论。得到

T=kL

其中,T的单位是毫秒,L的单位是像素长度,经过本人手工测试,k的值大概是4.34.5

于是问题就转换为由输入图像,求解棋子底座中心到下一个跳台中心的距离。这个问题又可以进一步分解为求解棋子底座中心坐标和求解下一个跳台平面中心坐标。

于是,算法的流程如下:

图片2

其中,计算距离是很简单的数学问题,这里不作详述,重点放在棋子坐标识别与跳台中心识别上,下面分两部分对其进行说明。

1、棋子坐标识别

跳一跳简洁的画风使分离棋子异常简单,由于棋子与背景具有鲜明的对比,这里无需训练分类器。如果做过手势分割的人就知道,通过肤色可以把手从背景中分割出来,这里使用类似的原理。

从游戏可知,棋子的颜色是固定的,为紫色,具有明暗变化,针对该特点,这里我把图像从RGB空间映射到HSV空间,以色调H作为分割依据,根据实验统计,棋子部分的H的区间为[100,135]。这里拿一幅图进行测试,得到如下结果:图片3-4

这里,有一个问题是要注意的,游戏界面的上部的分数,菜单图标,以及下面的邀请围观按钮有可能会对分割造成影响,而棋子和跳台均集中在画面的中间位置,因此,处理图像时,应先把图片的上部和下部的去掉。这在下面的所有操作均适用,下面不再重复。

有一种特殊情况,当遇到紫色礼盒跳台时,由于跳台和棋子的色调接近,将使分割无法正确进行。

图片5-6

因此,我们必须要对分割加一个约束,以解决这种情况,幸运的是,我发现,该礼盒与棋子在明度上还是有很大的差别的,所以,这里加一个明度约束,取V满足[0,150]。实验结果如下

图片7-8

于是,棋子的分割区间应该是H:[100,135],V:[0,150]

棋子分割出来后,就是坐标的计算了,这里采用了一种很简单粗暴但很有效的办法,求解重心再按图像大小往下偏移。

首先是根据分割图片,求解棋子的重心,然后,把重心按照采样图片的大小加一个往下的偏移量移到棋子的底部中心位置即可。由于棋子的大小是固定的,所以偏移量也是固定的,具体数值多少跟采样图片大小有关。由此,棋子底座中心坐标识别完成,下面是实验结果,输出坐标在图片中用红色圈标出。

图片9

2、跳台中心的识别

这一部分相对较麻烦。主要的原因是跳台种类繁多,颜色各异,大小不一,形状各异。有些跳台的跳台平面是纯色的,但是有些诸如魔方、音乐盒等则有复杂的图案。各种干扰为识别带来了麻烦。

这里可以换一个角度,我们最终的目的是提取出跳台的跳台平面中心,而不是识别跳台本身的种类,因此并没有从图像中分割出跳台并识别的必要性。这里先明确一个概念,跳台是指整个物体,跳台平面指的是该跳台供棋子立足的平面,比如,纸盒本身是跳台,跳台平面就是它的上表面。我试图从全局图像入手解决这个问题。

首先要做的是背景去除,一开始我猜测背景是纯色或者明度渐变的,后来实验的结果显示并不是那么一回事,渐变是两种颜色的渐变。这个就有点坑了。经过一番折腾后,下面给出解决方案。

我从图像的边缘附近的背景处,取了两个点,一个在图像上方,一个在下方,两者在同一列。然后我把这两点间的像素的各个通道的变化绘制出来,纵坐标是通道值,横坐标是标号。经过多次试验,可以发现在背景的纵向,颜色各通道值与所在点的y坐标呈线性关系。

图片10

而在横向,我发现背景中同一行的像素值不变。

基于上述实验结果,我在背景的上下方各取一点,计算出两点的RGB三个通道各自与行索引y的线性方程的斜率k

公式1

公式2

公式3

于是可得到

公式4

公式4

公式4

遍历全图,把每一个像素的实际值与使用上面公式计算得到的计算值进行对比,若误差少于某一阈值,则判定该点为背景点。处理效果如下:

图片11-12

成背景去除后,我们还要进一步把棋子从图上去掉,以防干扰。这里操作很简单,直接使用棋子分割得到的图片取反后与待处理图片作与运算即可,为了保证棋子的去除没有残留,可以适当对棋子分割图执行膨胀后再进行操作。结果如下:

图片11-12

从这步开始对跳台平面的中心进行定位。为了方便说明,我把执行上述步骤后得到的图像执行二值化(实际程序中这步没有必要),取白色为1,黑色为0.

首先,经过观察,可以得到几个前置结论。

1)无论跳台是纯色的还是有图案的,是盒子还是圆桌或是牛奶瓶,跳台平面在屏幕上的投影无非就是两种情况,一种是菱形,一种是椭圆形。且菱形的短对角线和椭圆的短轴均与Y轴平行。

2)无论何种跳台,其跳台平面在屏幕上的投影均位于该跳台整体投影的最上方。

3)无论何种跳台,无论起始跳台与目标跳台的距离长短,目标跳台在屏幕上投影的最高点总比起始跳台在屏幕上投影的最高点要高。(这个其实并不是绝对的,只是在该游戏中极少会出现)

基于以上结论,执行以下操作:

从图片的第一行起,往下逐行扫描,寻找不为0的像素点。

根据前置结论3,扫描过程中碰到的第一个为1的点属于目标跳台。

根据前置结论2,扫描过程中碰到的第一个为1的点位于目标跳台的跳台平面上。

根据前置结论1,扫描碰到的第一个为1的点的x坐标与跳台平面中点的x坐标相等。把该点设为P1

这里要做一个修正,由于分辨率的原因,实际上扫描线与图形相切的切点往往不只一个,所以实际的操作应该是取相切行中所有连续的为1的点的中点作为P1

然后分两种情况:

第一种是P1位于棋子坐标Pchess的右边(P1.x > Pchess.x)。这时从P1开始,沿着跳台平面的边缘向右走(x增大的方向),到达第一个拐点(x的取值由增加到减小或不变的点)停下,取该点为P2

具体的操作方法是,从P1处往右扫描,直至到像素点为0的点停下,记下该点的x坐标,设为a0,从该点处下移一行,往右扫描操作,直至到像素点为0的点停下,记下该点的x坐标,设为a1···重复上述操作,直至a的极大值出现,那么P2的坐标就是(an,P1.y+n)。

   图片15  图片16

第二种情况是P1位于棋子坐标Pchess的左边(P1.x < Pchess.x),这种情况与上面的操作是类似的,不同的是,从P1开始,沿着边缘往左走(x减小的方向),取第一个拐点(x的取值由减小到增加或不变的点)为P2

图片17

可知,P2.y与跳台平面的中点的y坐标相等。由此可得,跳台平面中点坐标

PMiddle为(P1.x,P2.y.

上述方法对菱形和椭圆均适用,实验结果中对于菱形识别的准确度较高,基本可以定到中心,椭圆的情况稍差,但也基本满足要求,下面是最终识别结果,用红色圈在原图中标出结果如下:

图片18 图片19 图片20

经过上述步骤后,就已经可以求出棋子坐标,和跳台平面中心坐标了,然后求解两点距离,再根据公式求出点击时间,用以控制即可。



2019-02-22 18:46:48 weixin_43346716 阅读数 315

计算机视觉在交通领域主要有如下几个方面的应用:第一个是感知,既车辆的检测,第二个是车辆身份的识别,第三是车辆身份的比对,第四个是车辆的行为分析,第五个是驾控,也就是现在非常火的汽车辅助驾驶与无人驾驶。

车辆检测与感知

检测就是计算机通过图片或者视频,把其中的车辆或其它关注目标准确的“框”出来,检测是很多系统的基础。在2012年以前,很多智能交通系统中用的检测是一种基于运动的检测,这种检测会受天气、光线等方面的影响,在不同天气下会存在很多问题。而基于深度学习的检测,是基于车辆的轮廓和形态的检测,是完全模拟人看车的方式,只要人眼可以辨识那是一辆车,就可以“框”出来,这个就可以解决很多过去车辆检测中存在的问题,排除了天气光线等来带的干扰。

路口的感知

目前的国内很多城市交通拥堵情况很严重,很多十字路口的红绿灯配时其实并不是最优的,通过基于深度学习的车辆精确感知检测,可以精准的感知交通路口各个方向的车辆数量、流量和密度,从而可以给交通路口的最优配时提供准确依据。如果各个路口都用上这种车辆检测技术,那对交通拥堵将是极大的缓解。

路段的感知

经过过去几年的建设,我国的大中型城市都安装了很多监控摄像头,通过路段的感知,可以基于原有监控系统获取到道路的总体交通路况,通过这种车辆检测技术就可以为道路路况分析、交通大数据、交通规划等提供可靠的数据依据。

路侧停车的感知

有两个方面的应用,一个是路侧违法停车的感知和抓拍,不再需要摄像机去轮询检测,大大提高了摄像机的使用寿命。另外一个就是路侧停车位的管理,之前的方案在外场要感知车位是否被占用,一般通过地磁感知,成本非常高,系统可靠性也是问题;基于图像的识别则可以很好的解决这个问题,一台摄像机即可监控和感知一大片区域的停车位是否被占用,成本低还所见即所得。

停车场的感知

现在室内停车场应用图像识别实现车位检测的已经比较多了,但是现在很多车的检测都是基于车牌,有车牌就可以检测出来,没车牌检测不出来,甚至有的车牌效果不太好也无法检测。而基于深度学习的车辆检测,只看车辆的轮廓,不看车牌,只要看起来像个车的,就可以检测出来,而且精度很高。现在通过计算机视觉技术,可以做到模拟人的视觉感知,哪个地方有车停,哪个地方是空位,直接检测出来把数据发送给平台,发布到停车场诱导系统上。

车辆身份特征识别

计算机视觉用于智能交通的第二个大的应用领域就是车辆的身份识别。目前,常用的ETC和电子标签技术识别车辆确实非常可靠,而且精度还是比图像识别要高一些。但是现实中还存在很多现实问题,比如说现在很多大货车无法用ETC,还有ETC系统遭到破坏,怎么办?而电子标签真正落地还需要时间。在这个时间窗口,如何实现车辆身份特征的唯一性识别?通过深度学习提升的车辆识别不仅仅是车辆的车牌识别准确率,还能实现更多维度的识别,现在的“车脸识别”技术不仅能精确识别车牌,还有车辆的颜色、类型、品牌年款、车辆里人物、车辆挡风玻璃上的特殊标志以及车辆尾部的特征标志等。

车辆的比对

计算机视觉用于智能交通的第三个大的应用领域就是车辆的比对,最典型的应用就是以图搜图,如何在海量图片里精准的找到一辆车,所谓世界上没有两片相同的树叶,也没有两辆完全一样的车。如下图,看着像是一样的,但是仔细区分,还是会发现不同。

基于视图大数据的以图搜图功能,可以在海量图片里找到一辆特定的车,不管有没有号牌,这里还包括一些其它的功能,如套牌车分析等等,套牌车在以前,唯一的方法就是举报,但现在计算机可以通过两个车牌是完全一样的车,通过车型比对和车辆特征比对来鉴定是否套牌车。

车辆比对的另外一个应用场景就是收费结算,目前车牌识别用在停车场的支付里,还有一些遗留问题,就是还存在无牌车、污牌车和套牌车,因而依然必须依赖人工参与。有没有一种办法可以减少或者是不让人工参与呢?车脸识别就可以解决这一问题,可以构建车辆多层多维度的特征,相当于得到一个车辆的肖像,然后通过特征比对去判断是否同一辆车。

交通视频的分析应用

计算机视觉应用在智能交通的第四个大的应用领域就是车辆的行为分析。

第一个是交通事故及事件检测,基于连续视频可以分析车辆的行为,检测如车辆停车、逆行等行为,发现交通事故和交通拥堵进行报警。借助深度学习技术,能实现真正准确的交通事件检测系统,真正的帮交通运营部门提供准确及时的报警信息。

第二个就是车辆违章抓拍,这些近几年在我国应用非常广泛,而且利用视频检测实现的非现场执法的种类越来越多,现在甚至连开车接打电话都可以识别抓拍,这些都得益于计算机视觉技术的快速进步。

无人驾驶和汽车辅助驾驶

最后要说的一个应用领域就是汽车驾控,就是当前非常热的无人驾驶和汽车辅助驾驶。其中非常重要的一个技术点就是图像识别,通过图像识别前方车辆、行人、障碍物、道路以及交通信号灯和交通标识,这项技术的落地应用将给人类带来前所未有的出行体验,重塑交通体系,并构建真正的智能交通时代。

总结一下,计算机视觉技术过去5年内取得的成绩甚至是远远超过了之前的20年,得益于深度学习技术带来的巨大进步,计算机视觉的广泛应用,能够大大提升智能交通系统的感知精度与维度,让智能交通系统更加智慧。

通过深度学习技术,未来能够让移动支付在智能交通系统中更加快速的落地,让无人驾驶的美好梦想变成现实,从而给全人类带来更加安全、便捷、舒适的出行体验。
  人工智能、大数据、云计算和物联网的未来发展值得重视,均为前沿产业,多智时代专注于人工智能和大数据的入门和科谱,在此为你推荐几篇优质好文:
1.模式识别应用于哪些领域,模式识别技术的发展趋势
http://www.duozhishidai.com/article-15389-1.html
2.计算机视觉与图像处理、模式识别和机器学习,之间有什么关系?
http://www.duozhishidai.com/article-4119-1.html
3.语音的识别过程主要分哪几步,常用的识别方法是什么?
http://www.duozhishidai.com/article-1739-1.html


多智时代-人工智能大数据学习入门网站|人工智能、大数据、物联网云计算的学习交流网站

多智时代-人工智能大数据学习入门网站|人工智能、大数据、云计算、物联网的学习服务的好平台

深度学习

阅读数 102

没有更多推荐了,返回首页