单目手势识别算法android_android触屏手势识别算法 - CSDN
  • 应用于VR/AR的主流光学手势识别技术解析 摘要:Oculus先后收购了Nimble VR、Surreal Vision、Pebbles Interfaces。手势与VR控制、AR互动整合的重要性不言而喻。作者王元介绍了目前主流的光学手势识别方案,包括...

    应用于VR/AR的主流光学手势识别技术解析


    摘要:Oculus先后收购了Nimble VR、Surreal Vision、Pebbles Interfaces。手势与VR控制、AR互动整合的重要性不言而喻。作者王元介绍了目前主流的光学手势识别方案,包括二维手型识别、二维手势识别、三维手势识别。

    Oculus于今年五月刚收购了Surreal Vision,一家专门从事虚拟世界与现实环境实时互动研究的公司。两个月还不到,Oculus又宣布收购了以色列创业公司Pebbles Interfaces,一家专门从事动作检测的公司,与LeapMotion重建手指骨骼不同,Pebbles Interfaces重建的是整个手的外形。可以想见,Pebbles Interfaces和去年的Nimble VR一道,将继续增强Oculus在手势控制方面的优势,在未来将手势VR控制、AR互动整合在产品中,其重要性不言而喻。这里翻出原来写的光学手势识别技术文章,再给大家介绍一下主流技术。


    谈起手势识别技术,由简单粗略的到复杂精细的,大致可以分为三个等级:二维手型识别、二维手势识别、三维手势识别。

    在具体讨论手势识别之前,我们有必要先知道二维和三维的差别。二维只是一个平面空间,我们可以用(X坐标,Y坐标)组成的坐标信息来表示一个物体在二维空间中的坐标位置,就像是一幅画出现在一面墙上的位置。三维则在此基础上增加了“深度”(Z坐标)的信息,这是二维所不包含的。这里的“深度”并不是咱们现实生活中所说的那个深度,这个“深度”表达的是“纵深”,理解为相对于眼睛的“远度”也许更加贴切。就像是鱼缸中的金鱼,它可以在你面前上下左右的游动,也可能离你更远或者更近。

    前两种手势识别技术,完全是基于二维层面的,它们只需要不含深度信息的二维信息作为输入即可。就像平时拍照所得的相片就包含了二维信息一样,我们只需要使用单个摄像头捕捉到的二维图像作为输入,然后通过计算机视觉技术对输入的二维图像进行分析,获取信息,从而实现手势识别。

    而第三种手势识别技术,是基于三维层面的。三维手势识别与二维手势识别的最根本区别就在于,三维手势识别需要的输入是包含有深度的信息,这就使得三维手势识别在硬件和软件两方面都比二维手势识别要复杂得多。对于一般的简单操作,比如只是想在播放视频的时候暂停或者继续播放,二维手势也就足够了。但是对于一些复杂的人机交互,与3D场景互动,就必须含有深度信息才行。

    二维手型识别

    二维手型识别,也可称为静态二维手势识别,识别的是手势中最简单的一类。这种技术在获取二维信息输入之后,可以识别几个静态的手势,比如握拳或者五指张开。其代表公司是一年前被Google收购的Flutter。在使用了他家的软件之后,用户可以用几个手型来控制播放器。用户将手掌举起来放到摄像头前,视频就开始播放了;再把手掌放到摄像头前,视频又暂停了。

    “静态”是这种二维手势识别技术的重要特征,这种技术只能识别手势的“状态”,而不能感知手势的“持续变化”。举个例子来说,如果将这种技术用在猜拳上的话,它可以识别出石头、剪刀和布的手势状态。但是对除此之外的手势,它就一无所知了。所以这种技术说到底是一种模式匹配技术,通过计算机视觉算法分析图像,和预设的图像模式进行比对,从而理解这种手势的含义。

    这种技术的不足之处显而易见:只可以识别预设好的状态,拓展性差,控制感很弱,用户只能实现最基础的人机交互功能。但是它是识别复杂手势的第一步,而且我们的确可以通过手势和计算机互动了,还是很酷的不是么?想象一下你忙着吃饭,只要凭空做个手势,计算机就可以切换到下一个视频,比使用鼠标来控制可是方便多了!

    二维手势识别

    二维手势识别,比起二维手型识别来说稍难一些,但仍然基本不含深度信息,停留在二维的层面上。这种技术不仅可以识别手型,还可以识别一些简单的二维手势动作,比如对着摄像头挥挥手。其代表公司是来自以色列的PointGrab,EyeSight和ExtremeReality。

    二维手势识别拥有了动态的特征,可以追踪手势的运动,进而识别将手势和手部运动结合在一起的复杂动作。这样一来,我们就把手势识别的范围真正拓展到二维平面了。我们不仅可以通过手势来控制计算机播放/暂停,我们还可以实现前进/后退/向上翻页/向下滚动这些需求二维坐标变更信息的复杂操作了。

    这种技术虽然在硬件要求上和二维手型识别并无区别,但是得益于更加先进的计算机视觉算法,可以获得更加丰富的人机交互内容。在使用体验上也提高了一个档次,从纯粹的状态控制,变成了比较丰富的平面控制。这种技术已经被集成到了电视里,但是还没有成为常用控制方式。

    三维手势识别

    接下来我们要谈的就是当今手势识别领域的重头戏——三维手势识别。三维手势识别需要的输入是包含有深度的信息,可以识别各种手型、手势和动作。相比于前两种二维手势识别技术,三维手势识别不能再只使用单个普通摄像头,因为单个普通摄像头无法提供深度信息。要得到深度信息需要特别的硬件,目前世界上主要有3种硬件实现方式。加上新的先进的计算机视觉软件算法就可以实现三维手势识别了。下面就让小编为大家一一道来三维手势识别的三维成像硬件原理。

    1. 结构光(Structure Light)

    结构光的代表应用产品就是PrimeSense的Kinect一代了。

    这种技术的基本原理是,加载一个激光投射器,在激光投射器外面放一个刻有特定图样的光栅,激光通过光栅进行投射成像时会发生折射,从而使得激光最终在物体表面上的落点产生位移。当物体距离激光投射器比较近的时候,折射而产生的位移就较小;当物体距离较远时,折射而产生的位移也就会相应的变大。这时使用一个摄像头来检测采集投射到物体表面上的图样,通过图样的位移变化,就能用算法计算出物体的位置和深度信息,进而复原整个三维空间。

    以Kinect一代的结构光技术来说,因为依赖于激光折射后产生的落点位移,所以在太近的距离上,折射导致的位移尚不明显,使用该技术就不能太精确的计算出深度信息,所以1米到4米是其最佳应用范围。

    2. 光飞时间(Time of Flight)

    光飞时间是SoftKinetic公司所采用的技术,该公司为Intel提供带手势识别功能的三维摄像头。同时,这一硬件技术也是微软新一代Kinect所使用的。

    这种技术的基本原理是加载一个发光元件,发光元件发出的光子在碰到物体表面后会反射回来。使用一个特别的CMOS传感器来捕捉这些由发光元件发出、又从物体表面反射回来的光子,就能得到光子的飞行时间。根据光子飞行时间进而可以推算出光子飞行的距离,也就得到了物体的深度信息。

    就计算上而言,光飞时间是三维手势识别中最简单的,不需要任何计算机视觉方面的计算。

    3. 多角成像(Multi-camera)

    多角成像这一技术的代表产品是Leap Motion公司的同名产品和Usens公司的Fingo。

    这种技术的基本原理是使用两个或者两个以上的摄像头同时摄取图像,就好像是人类用双眼、昆虫用多目复眼来观察世界,通过比对这些不同摄像头在同一时刻获得的图像的差别,使用算法来计算深度信息,从而多角三维成像。

    在这里我们以两个摄像头成像来简单解释一下:

     


    双摄像头测距是根据几何原理来计算深度信息的。使用两台摄像机对当前环境进行拍摄,得到两幅针对同一环境的不同视角照片,实际上就是模拟了人眼工作的原理。因为两台摄像机的各项参数以及它们之间相对位置的关系是已知的,只要找出相同物体(枫叶)在不同画面中的位置,我们就能通过算法计算出这个物体(枫叶)距离摄像头的深度了。

    多角成像是三维手势识别技术中硬件要求最低,但同时是最难实现的。多角成像不需要任何额外的特殊设备,完全依赖于计算机视觉算法来匹配两张图片里的相同目标。相比于结构光或者光飞时间这两种技术成本高、功耗大的缺点,多角成像能提供“价廉物美”的三维手势识别效果。

    手势控制之于VR/AR

    今年E3展上各大厂商推出的VR游戏都需要控制器,对于Hardcore游戏,游戏控制器是目前最优解决方案。游戏控制器的优势在于,控制反馈及时,组合状态多。缺点是与虚拟环境互动少,用户只能控制而不能参与。目前各大厂商的沉浸式VR体验只有量上的差距,但是加入手势控制与VR环境实现互动,将会把VR体验真实性再推到另一个高度。

    特别的在VR游戏和AR领域,尤其是互动性更强的AR应用方面,游戏手柄和其它类型的控制器只能改变“状态”的特点,就成为了硬伤。举个例子来说,设计给iOS和Android这种触控设备的游戏(愤怒的小鸟,水果忍者等等),就不适合用手柄来玩,应为这些游戏就是为手控操作而设计的,我想你绝对不会想用手柄去切水果的。

    当前市场上的3D游戏,之所以称为3D主要是因为其中模型是3D的,但是对比VR游戏的3D场景来说,深度场景开发的还不够。所以Oculus很有远见的看到了手势控制在VR/AR的重要性,不仅是可以将目前的手控操作游戏无缝移植到VR平台上来,更可以发挥三维手势的深度信息的优势,开发出新类型游戏(挖掘深度信息,体会子弹时间,空手夺白刃等)。手势识别增强了实现运动控制游戏,例如,通过执行方向盘的姿势开车,使用弹弓的姿态玩“愤怒的小鸟”,用手势来玩第一人称射击游戏等等。

    如果说游戏手柄在VR游戏领域还有一席之地,那么在AR应用方面,手柄就完全不能胜任人机交互的任务了。在AR应用领域有丰富的人机互动内容,而这种互动是非常复杂的,只有手势操作才可以完成。以教育AR为例,我们希望使用AR来与用户互动,需要有选中、拖拽、拉伸等操作,使用手势完成这些动作是最自然的,而手柄完全无法应用。

    Oculus此举表明了手势识别对VR和AR不言而喻的重要意义,但是手势识别和手势控制算法复杂,计算资源要求高,Pebbles Interfaces和LeapMotion目前都运行在PC平台。但是目前移动VR市场占有很大比例,人们日常也更希望可以在移动端享受VR体验,所以手势识别如何流畅地运行在移动VR设备上,将是未来的关注点。


    展开全文
  • 不能荒废学业,打算好好研究自己的方向,跟的小导师研究的方向是手势识别,寒假第一天学习内容整理如下: 谈起手势识别技术,由简单粗略的到复杂精细的,大致可以分为三个等级:二维手型识别、二维手势识别、三维...

    不能荒废学业,打算好好研究自己的方向,跟的小导师研究的方向是手势识别,寒假第一天学习内容整理如下:

    谈起手势识别技术,由简单粗略的到复杂精细的,大致可以分为三个等级:二维手型识别、二维手势识别、三维手势识别。

    二维只是一个平面空间,我们可以用(X坐标,Y坐标)组成的坐标信息来表示一个物体在二维空间中的坐标位置,就像是一幅画出现在一面墙上的位置。三维则在此基础上增加了“深度”(Z坐标)的信息,这是二维所不包含的。这里的“深度”并不是咱们现实生活中所说的那个深度,这个“深度”表达的是“纵深”,理解为相对于眼睛的“远度”也许更加贴切。就像是鱼缸中的金鱼,它可以在你面前上下左右的游动,也可能离你更远或者更近。

    前两种手势识别技术,完全是基于二维层面的,它们只需要不含深度信息的二维信息作为输入即可。就像平时拍照所得的相片就包含了二维信息一样,我们只需要使用单个摄像头捕捉到的二维图像作为输入,然后通过计算机视觉技术对输入的二维图像进行分析,获取信息,从而实现手势识别。

    而第三种手势识别技术,是基于三维层面的。三维手势识别与二维手势识别的最根本区别就在于,三维手势识别需要的输入是包含有深度的信息,这就使得三维手势识别在硬件和软件两方面都比二维手势识别要复杂得多。对于一般的简单操作,比如只是想在播放视频的时候暂停或者继续播放,二维手势也就足够了。但是对于一些复杂的人机交互,与3D场景互动,就必须含有深度信息才行。

    二维手型识别

    二维手型识别,也可称为静态二维手势识别,识别的是手势中最简单的一类。这种技术在获取二维信息输入之后,可以识别几个静态的手势,比如握拳或者五指张开。其代表公司是一年前被Google收购的Flutter。在使用了他家的软件之后,用户可以用几个手型来控制播放器。用户将手掌举起来放到摄像头前,视频就开始播放了;再把手掌放到摄像头前,视频又暂停了。

    “静态”是这种二维手势识别技术的重要特征,这种技术只能识别手势的“状态”,而不能感知手势的“持续变化”。举个例子来说,如果将这种技术用在猜拳上的话,它可以识别出石头、剪刀和布的手势状态。但是对除此之外的手势,它就一无所知了。所以这种技术说到底是一种模式匹配技术,通过计算机视觉算法分析图像,和预设的图像模式进行比对,从而理解这种手势的含义。

    这种技术的不足之处显而易见:只可以识别预设好的状态,拓展性差,控制感很弱,用户只能实现最基础的人机交互功能。但是它是识别复杂手势的第一步,而且我们的确可以通过手势和计算机互动了,还是很酷的不是么?想象一下你忙着吃饭,只要凭空做个手势,计算机就可以切换到下一个视频,比使用鼠标来控制可是方便多了!

    二维手势识别

    二维手势识别,比起二维手型识别来说稍难一些,但仍然基本不含深度信息,停留在二维的层面上。这种技术不仅可以识别手型,还可以识别一些简单的二维手势动作,比如对着摄像头挥挥手。其代表公司是来自以色列的PointGrab,EyeSight和ExtremeReality。

    二维手势识别拥有了动态的特征,可以追踪手势的运动,进而识别将手势和手部运动结合在一起的复杂动作。这样一来,我们就把手势识别的范围真正拓展到二维平面了。我们不仅可以通过手势来控制计算机播放/暂停,我们还可以实现前进/后退/向上翻页/向下滚动这些需求二维坐标变更信息的复杂操作了。

    这种技术虽然在硬件要求上和二维手型识别并无区别,但是得益于更加先进的计算机视觉算法,可以获得更加丰富的人机交互内容。在使用体验上也提高了一个档次,从纯粹的状态控制,变成了比较丰富的平面控制。这种技术已经被集成到了电视里,但是还没有成为常用控制方式。

    三维手势识别

    接下来我们要谈的就是当今手势识别领域的重头戏——三维手势识别。三维手势识别需要的输入是包含有深度的信息,可以识别各种手型、手势和动作。相比于前两种二维手势识别技术,三维手势识别不能再只使用单个普通摄像头,因为单个普通摄像头无法提供深度信息。要得到深度信息需要特别的硬件,目前世界上主要有3种硬件实现方式。加上新的先进的计算机视觉软件算法就可以实现三维手势识别了。下面就让小编为大家一一道来三维手势识别的三维成像硬件原理。

    1. 结构光(Structure Light)

    结构光的代表应用产品就是PrimeSense的Kinect一代了。

    这种技术的基本原理是,加载一个激光投射器,在激光投射器外面放一个刻有特定图样的光栅,激光通过光栅进行投射成像时会发生折射,从而使得激光最终在物体表面上的落点产生位移。当物体距离激光投射器比较近的时候,折射而产生的位移就较小;当物体距离较远时,折射而产生的位移也就会相应的变大。这时使用一个摄像头来检测采集投射到物体表面上的图样,通过图样的位移变化,就能用算法计算出物体的位置和深度信息,进而复原整个三维空间。

    以Kinect一代的结构光技术来说,因为依赖于激光折射后产生的落点位移,所以在太近的距离上,折射导致的位移尚不明显,使用该技术就不能太精确的计算出深度信息,所以1米到4米是其最佳应用范围。

    2. 光飞时间(Time of Flight)

    光飞时间是SoftKinetic公司所采用的技术,该公司为Intel提供带手势识别功能的三维摄像头。同时,这一硬件技术也是微软新一代Kinect所使用的。

    这种技术的基本原理是加载一个发光元件,发光元件发出的光子在碰到物体表面后会反射回来。使用一个特别的CMOS传感器来捕捉这些由发光元件发出、又从物体表面反射回来的光子,就能得到光子的飞行时间。根据光子飞行时间进而可以推算出光子飞行的距离,也就得到了物体的深度信息。

    就计算上而言,光飞时间是三维手势识别中最简单的,不需要任何计算机视觉方面的计算。

    3. 多角成像(Multi-camera)

    多角成像这一技术的代表产品是Leap Motion公司的同名产品和Usens公司的Fingo。

    这种技术的基本原理是使用两个或者两个以上的摄像头同时摄取图像,就好像是人类用双眼、昆虫用多目复眼来观察世界,通过比对这些不同摄像头在同一时刻获得的图像的差别,使用算法来计算深度信息,从而多角三维成像。

    在这里我们以两个摄像头成像来简单解释一下:

     


    双摄像头测距是根据几何原理来计算深度信息的。使用两台摄像机对当前环境进行拍摄,得到两幅针对同一环境的不同视角照片,实际上就是模拟了人眼工作的原理。因为两台摄像机的各项参数以及它们之间相对位置的关系是已知的,只要找出相同物体(枫叶)在不同画面中的位置,我们就能通过算法计算出这个物体(枫叶)距离摄像头的深度了。

    多角成像是三维手势识别技术中硬件要求最低,但同时是最难实现的。多角成像不需要任何额外的特殊设备,完全依赖于计算机视觉算法来匹配两张图片里的相同目标。相比于结构光或者光飞时间这两种技术成本高、功耗大的缺点,多角成像能提供“价廉物美”的三维手势识别效果。

    自己比较感兴趣的事手势识别与VR/AR

    手势控制之于VR/AR

    今年E3展上各大厂商推出的VR游戏都需要控制器,对于Hardcore游戏,游戏控制器是目前最优解决方案。游戏控制器的优势在于,控制反馈及时,组合状态多。缺点是与虚拟环境互动少,用户只能控制而不能参与。目前各大厂商的沉浸式VR体验只有量上的差距,但是加入手势控制与VR环境实现互动,将会把VR体验真实性再推到另一个高度。

    特别的在VR游戏和AR领域,尤其是互动性更强的AR应用方面,游戏手柄和其它类型的控制器只能改变“状态”的特点,就成为了硬伤。举个例子来说,设计给iOS和Android这种触控设备的游戏(愤怒的小鸟,水果忍者等等),就不适合用手柄来玩,应为这些游戏就是为手控操作而设计的,我想你绝对不会想用手柄去切水果的。

    当前市场上的3D游戏,之所以称为3D主要是因为其中模型是3D的,但是对比VR游戏的3D场景来说,深度场景开发的还不够。所以Oculus很有远见的看到了手势控制在VR/AR的重要性,不仅是可以将目前的手控操作游戏无缝移植到VR平台上来,更可以发挥三维手势的深度信息的优势,开发出新类型游戏(挖掘深度信息,体会子弹时间,空手夺白刃等)。手势识别增强了实现运动控制游戏,例如,通过执行方向盘的姿势开车,使用弹弓的姿态玩“愤怒的小鸟”,用手势来玩第一人称射击游戏等等。

    如果说游戏手柄在VR游戏领域还有一席之地,那么在AR应用方面,手柄就完全不能胜任人机交互的任务了。在AR应用领域有丰富的人机互动内容,而这种互动是非常复杂的,只有手势操作才可以完成。以教育AR为例,我们希望使用AR来与用户互动,需要有选中、拖拽、拉伸等操作,使用手势完成这些动作是最自然的,而手柄完全无法应用。

    Oculus此举表明了手势识别对VR和AR不言而喻的重要意义,但是手势识别和手势控制算法复杂,计算资源要求高,Pebbles Interfaces和LeapMotion目前都运行在PC平台。但是目前移动VR市场占有很大比例,人们日常也更希望可以在移动端享受VR体验,所以手势识别如何流畅地运行在移动VR设备上,将是未来的关注点。


    下面是转载的Kinect的安装

    -----------------------------------------------------------------------

          Kinect作为新一代的体感设备,小斤就不多介绍咯,微软日前也发布了相应的官方SDK,用以开发Kinect在PC上的应用。但就目前的情况而言,微软的KinectSDK只能在Win 7平台上使用,因此小斤选择了OpenNI作为Kinect开发的第一块踏脚石,它是目前已被广泛使用和认可的开源Kinect开发库。

     

    准备

           首先大家需要下载三样东西:

           第一,OpenNI ,小斤在这里下载:http://www.openni.org/Downloads/OpenNIModules.aspx,选择OpenNI Binaries,注意要下载Development Edition,这样才有Sample可以测试查看。此外,源码也可以在GitHub上看到:https://github.com/OpenNI/OpenNI

           第二,SensorKinect,它就是Kinect的驱动了,可以在https://github.com/avin2/SensorKinect的Bin中找到。

           第三,NITE,这是PrimeSense 提供的中间件,可以分析Kinect读取的资料,输出人体动作等等。目前在http://www.openni.org/Downloads/OpenNIModules.aspx,选择OpenNI Compliant Middleware Binaries就能够下载了。

     

    安装

    【1】下载完毕后,先把Kinect放在一边,安装OpenNI。

    (小斤安装OpenNI后,安装SensorKinect过程中,会弹出”Please install OpenNI version….”之类的错误,重启后再一次点击SensorKinect安装就解决了。有同学提示说,安装OpenNI的Windows用户一定要用管理员身份跑安装程序才行,没有的话有一部分文件无法写入,会导致之后的错误。)

     

    【2】安装SensorKinect驱动,装完,把Kinect插上,此时系统就会自动开始搜索驱动了,如果没有搜索到,那么需要指定驱动目录了。假设SensorKinect默认安装在默认路径,指定驱动目录C:\ProgramFiles\Prime Sense\Sensor\Driver。

          驱动安装成功的话,在设备管理器中,会出现:


     


    【3】安装NITE,装完后,由于NITE定义的320*240分辨率与SensorKinect的640*480不同,这边有个关键步骤,假设安装在默认路径:

          从"c:\Program Files\PrimeSense\Sensor\SampleXMLs\NITE\Data\" 里复制所有XML文件到 "c:\ProgramFiles\Prime Sense\NITE\Data\" 覆盖
      从"c:\ProgramFiles\Prime Sense\Sensor\SampleXMLs\OPENNI\Data" 里复制所有XML文件到 "c:\Program Files\OpenNI\Data" 覆盖


          此外,NITE是需要序列号的,但其官网免费提供了一个:0KOIk2JeIBYClPWVnMoRKn5cdY4=

           我们只要将"c:\Program Files\Prime Sense\NITE\Data\"目录下所有配置文件,把Licenses部分替换即可:

      <Licenses> 
         <License vendor="PrimeSense"key="0KOIk2JeIBYClPWVnMoRKn5cdY4="/> 
      </Licenses>

     

    测试

    【OpenNI】

           如果安装在默认路径下,测试程序可以在C:\Program Files\OpenNI\Samples\Bin\Release下找到,这里小斤使用的是NiViewer.exe和NiSimpleViewer.exe,都是显示深度图,如果运行没问题就可以咯。另外,NiUserTracker这个程序也很有趣,可以跟踪你的人体,前提是它捕捉到你人体后,你做出一个标定动作(举起双手)并维持一段时间。

          SimpleViewer:


           UserTracker:



            如果安装一切正常,但这些例子无法显示结果,可以关闭防火墙试试,某些防火墙的设置会阻拦OpenNI的组件读取摄像头


    【NITE】

           同样的,如果安装在默认路径下,测试程序可以在C:\Program Files\OpenNI\Samples\Bin\Release下找到,小斤玩了下StickFigure,这个程序能在一个空间中显示出骨架。


    VS开发环境

           要使用VS进行开发的话,需要配置include和lib路径。

           进入VS,点击菜单Tools,进入Options。

           在Projects and Solutions中,选择VC++Directories。

           假设OpenNI安装在默认路径下,则include files加入C:\Program Files\OpenNI\Include,Library files加入C:\ProgramFiles\OpenNI\Lib。

           这样VS的开发环境就配置好了。如果建立了OpenNI的开发项目,则还需要在项目属性——Linker——Input 中的Additional Denpendencies,加入openNI.lib。

           (以上配置在VS2010中有些出入,include和library可能被移到项目属性中配置)

     

           与OpenNI的Sample使用OpenGL不同,小斤之后的教程范例中,会使用OpenCV进行图像的输入输出,以简化程序(如果你看了OpenNI Sample的代码,会发现代码被OpenGL占了一大半)。大家可以在http://www.opencv.org.cn/上找到安装配置方法,小斤就不赘述了。(当然大家也可以直接无视范例中的OpenCV输出部分,把OpenNI读取的数据直接print出来。)


    展开全文
  • 作者王元介绍了目前主流的光学手势识别方案,包括二维手型识别、二维手势识别、三维手势识别。 Oculus于今年五月刚收购了Surreal Vision,一家专门从事虚拟世界与现实环境实时互动研究的公司。两个月还不到,...
    摘要:Oculus先后收购了Nimble VR、Surreal Vision、Pebbles Interfaces。手势与VR控制、AR互动整合的重要性不言而喻。作者王元介绍了目前主流的光学手势识别方案,包括二维手型识别、二维手势识别、三维手势识别。

    Oculus于今年五月刚收购了Surreal Vision,一家专门从事虚拟世界与现实环境实时互动研究的公司。两个月还不到,Oculus又宣布收购了以色列创业公司Pebbles Interfaces,一家专门从事动作检测的公司,与LeapMotion重建手指骨骼不同,Pebbles Interfaces重建的是整个手的外形。可以想见,Pebbles Interfaces和去年的Nimble VR一道,将继续增强Oculus在手势控制方面的优势,在未来将手势VR控制、AR互动整合在产品中,其重要性不言而喻。这里翻出原来写的光学手势识别技术文章,再给大家介绍一下主流技术。


    谈起手势识别技术,由简单粗略的到复杂精细的,大致可以分为三个等级:二维手型识别、二维手势识别、三维手势识别。

    在具体讨论手势识别之前,我们有必要先知道二维和三维的差别。二维只是一个平面空间,我们可以用(X坐标,Y坐标)组成的坐标信息来表示一个物体在二维空间中的坐标位置,就像是一幅画出现在一面墙上的位置。三维则在此基础上增加了“深度”(Z坐标)的信息,这是二维所不包含的。这里的“深度”并不是咱们现实生活中所说的那个深度,这个“深度”表达的是“纵深”,理解为相对于眼睛的“远度”也许更加贴切。就像是鱼缸中的金鱼,它可以在你面前上下左右的游动,也可能离你更远或者更近。

    前两种手势识别技术,完全是基于二维层面的,它们只需要不含深度信息的二维信息作为输入即可。就像平时拍照所得的相片就包含了二维信息一样,我们只需要使用单个摄像头捕捉到的二维图像作为输入,然后通过计算机视觉技术对输入的二维图像进行分析,获取信息,从而实现手势识别。

    而第三种手势识别技术,是基于三维层面的。三维手势识别与二维手势识别的最根本区别就在于,三维手势识别需要的输入是包含有深度的信息,这就使得三维手势识别在硬件和软件两方面都比二维手势识别要复杂得多。对于一般的简单操作,比如只是想在播放视频的时候暂停或者继续播放,二维手势也就足够了。但是对于一些复杂的人机交互,与3D场景互动,就必须含有深度信息才行。

    二维手型识别

    二维手型识别,也可称为静态二维手势识别,识别的是手势中最简单的一类。这种技术在获取二维信息输入之后,可以识别几个静态的手势,比如握拳或者五指张开。其代表公司是一年前被Google收购的Flutter。在使用了他家的软件之后,用户可以用几个手型来控制播放器。用户将手掌举起来放到摄像头前,视频就开始播放了;再把手掌放到摄像头前,视频又暂停了。

    “静态”是这种二维手势识别技术的重要特征,这种技术只能识别手势的“状态”,而不能感知手势的“持续变化”。举个例子来说,如果将这种技术用在猜拳上的话,它可以识别出石头、剪刀和布的手势状态。但是对除此之外的手势,它就一无所知了。所以这种技术说到底是一种模式匹配技术,通过计算机视觉算法分析图像,和预设的图像模式进行比对,从而理解这种手势的含义。

    这种技术的不足之处显而易见:只可以识别预设好的状态,拓展性差,控制感很弱,用户只能实现最基础的人机交互功能。但是它是识别复杂手势的第一步,而且我们的确可以通过手势和计算机互动了,还是很酷的不是么?想象一下你忙着吃饭,只要凭空做个手势,计算机就可以切换到下一个视频,比使用鼠标来控制可是方便多了!

    二维手势识别

    二维手势识别,比起二维手型识别来说稍难一些,但仍然基本不含深度信息,停留在二维的层面上。这种技术不仅可以识别手型,还可以识别一些简单的二维手势动作,比如对着摄像头挥挥手。其代表公司是来自以色列的PointGrab,EyeSight和ExtremeReality。

    二维手势识别拥有了动态的特征,可以追踪手势的运动,进而识别将手势和手部运动结合在一起的复杂动作。这样一来,我们就把手势识别的范围真正拓展到二维平面了。我们不仅可以通过手势来控制计算机播放/暂停,我们还可以实现前进/后退/向上翻页/向下滚动这些需求二维坐标变更信息的复杂操作了。

    这种技术虽然在硬件要求上和二维手型识别并无区别,但是得益于更加先进的计算机视觉算法,可以获得更加丰富的人机交互内容。在使用体验上也提高了一个档次,从纯粹的状态控制,变成了比较丰富的平面控制。这种技术已经被集成到了电视里,但是还没有成为常用控制方式。

    三维手势识别

    接下来我们要谈的就是当今手势识别领域的重头戏——三维手势识别。三维手势识别需要的输入是包含有深度的信息,可以识别各种手型、手势和动作。相比于前两种二维手势识别技术,三维手势识别不能再只使用单个普通摄像头,因为单个普通摄像头无法提供深度信息。要得到深度信息需要特别的硬件,目前世界上主要有3种硬件实现方式。加上新的先进的计算机视觉软件算法就可以实现三维手势识别了。下面就让小编为大家一一道来三维手势识别的三维成像硬件原理。

    1. 结构光(Structure Light)

    结构光的代表应用产品就是PrimeSense的Kinect一代了。

    这种技术的基本原理是,加载一个激光投射器,在激光投射器外面放一个刻有特定图样的光栅,激光通过光栅进行投射成像时会发生折射,从而使得激光最终在物体表面上的落点产生位移。当物体距离激光投射器比较近的时候,折射而产生的位移就较小;当物体距离较远时,折射而产生的位移也就会相应的变大。这时使用一个摄像头来检测采集投射到物体表面上的图样,通过图样的位移变化,就能用算法计算出物体的位置和深度信息,进而复原整个三维空间。

    以Kinect一代的结构光技术来说,因为依赖于激光折射后产生的落点位移,所以在太近的距离上,折射导致的位移尚不明显,使用该技术就不能太精确的计算出深度信息,所以1米到4米是其最佳应用范围。

    2. 光飞时间(Time of Flight)

    光飞时间是SoftKinetic公司所采用的技术,该公司为Intel提供带手势识别功能的三维摄像头。同时,这一硬件技术也是微软新一代Kinect所使用的。

    这种技术的基本原理是加载一个发光元件,发光元件发出的光子在碰到物体表面后会反射回来。使用一个特别的CMOS传感器来捕捉这些由发光元件发出、又从物体表面反射回来的光子,就能得到光子的飞行时间。根据光子飞行时间进而可以推算出光子飞行的距离,也就得到了物体的深度信息。

    就计算上而言,光飞时间是三维手势识别中最简单的,不需要任何计算机视觉方面的计算。

    3. 多角成像(Multi-camera)

    多角成像这一技术的代表产品是Leap Motion公司的同名产品和Usens公司的Fingo。

    这种技术的基本原理是使用两个或者两个以上的摄像头同时摄取图像,就好像是人类用双眼、昆虫用多目复眼来观察世界,通过比对这些不同摄像头在同一时刻获得的图像的差别,使用算法来计算深度信息,从而多角三维成像。

    在这里我们以两个摄像头成像来简单解释一下:

     


    双摄像头测距是根据几何原理来计算深度信息的。使用两台摄像机对当前环境进行拍摄,得到两幅针对同一环境的不同视角照片,实际上就是模拟了人眼工作的原理。因为两台摄像机的各项参数以及它们之间相对位置的关系是已知的,只要找出相同物体(枫叶)在不同画面中的位置,我们就能通过算法计算出这个物体(枫叶)距离摄像头的深度了。

    多角成像是三维手势识别技术中硬件要求最低,但同时是最难实现的。多角成像不需要任何额外的特殊设备,完全依赖于计算机视觉算法来匹配两张图片里的相同目标。相比于结构光或者光飞时间这两种技术成本高、功耗大的缺点,多角成像能提供“价廉物美”的三维手势识别效果。

    手势控制之于VR/AR

    今年E3展上各大厂商推出的VR游戏都需要控制器,对于Hardcore游戏,游戏控制器是目前最优解决方案。游戏控制器的优势在于,控制反馈及时,组合状态多。缺点是与虚拟环境互动少,用户只能控制而不能参与。目前各大厂商的沉浸式VR体验只有量上的差距,但是加入手势控制与VR环境实现互动,将会把VR体验真实性再推到另一个高度。

    特别的在VR游戏和AR领域,尤其是互动性更强的AR应用方面,游戏手柄和其它类型的控制器只能改变“状态”的特点,就成为了硬伤。举个例子来说,设计给iOS和Android这种触控设备的游戏(愤怒的小鸟,水果忍者等等),就不适合用手柄来玩,应为这些游戏就是为手控操作而设计的,我想你绝对不会想用手柄去切水果的。

    当前市场上的3D游戏,之所以称为3D主要是因为其中模型是3D的,但是对比VR游戏的3D场景来说,深度场景开发的还不够。所以Oculus很有远见的看到了手势控制在VR/AR的重要性,不仅是可以将目前的手控操作游戏无缝移植到VR平台上来,更可以发挥三维手势的深度信息的优势,开发出新类型游戏(挖掘深度信息,体会子弹时间,空手夺白刃等)。手势识别增强了实现运动控制游戏,例如,通过执行方向盘的姿势开车,使用弹弓的姿态玩“愤怒的小鸟”,用手势来玩第一人称射击游戏等等。

    如果说游戏手柄在VR游戏领域还有一席之地,那么在AR应用方面,手柄就完全不能胜任人机交互的任务了。在AR应用领域有丰富的人机互动内容,而这种互动是非常复杂的,只有手势操作才可以完成。以教育AR为例,我们希望使用AR来与用户互动,需要有选中、拖拽、拉伸等操作,使用手势完成这些动作是最自然的,而手柄完全无法应用。

    Oculus此举表明了手势识别对VR和AR不言而喻的重要意义,但是手势识别和手势控制算法复杂,计算资源要求高,Pebbles Interfaces和LeapMotion目前都运行在PC平台。但是目前移动VR市场占有很大比例,人们日常也更希望可以在移动端享受VR体验,所以手势识别如何流畅地运行在移动VR设备上,将是未来的关注点。



    文章转载自:http://www.csdn.net/article/2015-09-06/2825619?locationNum=10&fps=1


    展开全文
  • 手动整理了1500多个深度学习及机器学习相关算法在实际应用中的项目,完全可以作为本科生当前较新的毕业设计题目选择方向。讲道理有些题目,比如“用户评分的隐式成分信息的研究”这种题目取的就比较广,有点科学研究...

    手动整理了1500多个深度学习及机器学习相关算法在实际应用中的项目,完全可以作为本科生当前较新的毕业设计题目选择方向。讲道理有些题目,比如“用户评分的隐式成分信息的研究”这种题目取的就比较广,有点科学研究的味道,如果真的去做,还是比较有技术含量的。因为其下一步的应用是具有广阔前景的。还有部分项目可能需要大量的数据集,收集的收集和整理比较麻烦。另外对自己电脑的要求也比较高。个人建议选择现有算法应用实践类题目,这样可以不用创新于算法模型的优化。而是去探索相关算法模型在某个领域的具体应用问题。这样一来:既研究了该算法的原理,又对其进行了实践探索。还是可以展示很多工作量的。

    题目变化:基于+方法+应用方向;这种可以填上不同的方法应用到不同的实际应用中,可以自己修改题目,以达到题目新颖。

    基于NLP,ASR及TTS技术的智能语音分析工具-负责语义分析部分
    基于用户的音乐推荐平台
    基于机器学习的文本语义分析工具
    基于图像的结构化数值识别系统的设计与实现
    MOOC视频内容推荐工具的设计与实现
    基于人脸识别的智能小区门禁系统设计与实现
    可定制智能信息查询与检索系统的设计与实现
    基于卷积神经网络的图像风格化处理
    基于卷积神经网络的图像修复系统设计与实现
    基于深度学习的目标实例分割
    基于纹理分析的医学图像处理
    基于全卷积神经网络的医学图像分割
    基于人脸识别的签到系统的设计与实现
    智慧校园语音交互系统的设计与实现
    中国天气质量数据展示与分析系统实现
    经典诗文自动生成设计与实现
    基于Opencv的行人检测系统设计
    基于主题和社会的top-N推荐系统的设计与实现
    基于人工智能谱曲的设计与实现(LSTM等)
    智能人员考勤管理系统设计与实现
    无人超市人脸支付系统设计与实现
    服务外包系统设计与实现
    基于NVIDIA TX2的货物识别系统设计与实现
    招聘网站数据类人才招聘特征分析与挖掘的算法实现
    基于大数据的图像标注软件设计与实现
    基于深度学习的垃圾识别分类研究与实现
    基于时间序列的医疗数据分析算法研究与实现
    人脸识别中活体检测技术研究
    基于深度学习的图像风格艺术化
    静态图像人体轮廓提取方法的研究
    基于深度学习的行人检测
    基于张量分解的脑纹识别研究
    网络大数据的同步分流Java程序设计
    基于雾霾数据的分析与预测系统设计与实现
    基于校园数据的分析与管理系统设计与实现
    基于raft算法的分布式内存系统开发
    基于海洋数据的分析与预测系统设计与现实
    基于深度学习的蛋白质种类检测和识别研究
    基于深度学习的图像拼接技术研究与应用
    基于深度学习的商品标签的识别与检测算法研究
    基于深度学习的单目图像深度估计
    基于深度学习的图像微变化检测算法研究
    基于深度学习的文字识别与检测算法研究
    基于深度学习的音乐分类算法研究
    基于目标检测的人流量自动统计算法研究与实现
    基于Python的数据集分析
    基于深度学习的自助聊天室构建
    基于树莓派的实时目标检测研究
    基于深度学习的流行度预测研究
    基于深度学习的艺术画风格识别
    基于深度学习的时尚标签识别
    基于机器学习的车牌竞价价格预估
    基于深度学习的快速目标检测研究
    基于机器学习技术的量化交易模型设计与实现
    基于深度学习的跨模态医学影像处理与分析
    面向数字货币的量化系统
    网络数据爬取及可视化分析----天气数据分析
    网络数据爬取及可视化分析—图书阅读分析
    网络数据爬取及可视化分析—影视数据分析
    基于Python的主流Web开发框架研究及实现
    基于协同过滤的电影推荐系统
    基于OpenCV车牌识别系统
    基于深度学习的公共场所客流运动模式分割算法研究
    基于数据挖掘的单车用户特征识别
    公交电动车辆电量监控管理子系统设计与实现
    人工智能技术在电磁场仿真中的应用
    人工智能技术在电路优化中的应用
    基于遗传算法的客服人员管理系统设计和实现
    基于协同过滤的广告推荐算法设计与实现
    基于网络爬虫和数据分析对淘宝用户进行智能化商品推荐
    爬虫系统中基于规则的智能Agent模块的设计与实现
    基于协同过滤的电影推荐系统的设计与实现
    基于全文检索技术的智能人才管理系统的设计与实现
    面向信息类网站的通用爬虫系统的设计与实现
    基于情感分析算法的新闻分类系统的设计与实现
    基于聚类算法的离群点数据分析系统的设计与实现
    基于大数据的公交线路客流预测研究
    基于PCA-SVM的分类方法研究
    代码抄袭检测平台的设计与实现
    基于主题模型的代码评论分析
    基于爬虫的Android APP评论分析
    基于自然语言处理模型的公共自行车数据分析
    基于web的电影推荐系统
    基于OpenCV的车牌识别系统
    基于网络数据流信息的可视分析系统
    基于三维卷积神经网络的肺癌辅助诊断
    基于深度学习的水果种类识别
    工人维修路径优化算法研究
    基于数据挖掘的网上房源信息可视化分析与智能推荐
    图像文本语义描述自动生成方法实现
    基于深度学习的超分辨率图像重建
    基于分布式爬虫的搜索引擎设计与实现
    工业大数据可视化方法研究和开发
    快速图像风格迁移方法研究与实现
    基于双目视觉的实时调整识别方法研究与实现
    基于OpenCV的人脸识别卡通贴图软件
    基于运动控制器的实时伺服控制插补算法优化与开发
    基于深度学习的摄影参数预测
    基于多模态信息融合的图像美学质量评价
    基于生成对抗网络的图像域迁移
    基于深度学习的图像目标检测
    基于深度学习的行人重识别
    英语选词填空智能作答机器人
    基于深度学习的花名识别
    基于深度学习的图像美学质量评价与增强
    基于大数据的个性化音乐推荐系统
    基于Python的个性化电影推荐系统研究
    基于TensorFlow的图像风格迁移
    基于特征相似度的图像检索系统
    基于GroupLens网站数据集的社交关系改进技术研究
    基于正弦函数的参数标定与成像-数字图像处理在CT中的应用
    基于正弦函数的参数标定与成像-CT反投影重建成像
    基于Phthon的糖尿病风险分析
    基于VACP的疟疾风险预测系统设计与实现
    基于时空的包虫病监控系统设计与实现
    基于Phthon的中国影业数据分析
    基于深度学习的高性能物体检测与分割模型
    基于数据挖掘的动态多因子选股的量化投资模型研究
    基于python的在线自动判题系统设计与实现
    基于深度学习的军事目标检测方法研究
    基于机器学习的垃圾短信过滤
    基于卷积神经网络的人脸识别技术研究
    社交网络的数据分析与可视化系统的设计与实现
    一种改进的多层次HOG行人检测方法
    基于ELK的用户行为分析系统设计与实现
    基于人脸识别技术的实验室门禁系统设计与实现
    基于机器学习的用户位置信息预测研究
    面向脸谱的网络数据采集与分析系统研发
    面向领英的网络数据采集与分析系统研发
    面向微博的网络数据采集与分析系统研发
    面向新闻网站的网络数据采集与分析系统研发
    面向暗网的网络数据采集与分析系统研发
    面向Instagram的网络数据采集与分析系统研发
    基于组合学习的产品分类
    基于磁共振成像的膀胱肿瘤检测系统设计与实现
    人物关系三维可视分析
    基于即时数据的GDP预测
    可视分析辅助的分类方法
    基于机器学习算法的数字识别app开发
    多源数据融合的计步算法研究
    基于机器学习的动作识别系统
    基于蚁群算法的协同过滤推荐系统
    “狼人杀”情感识别标注系统设计与实现
    长文本文字情感分析以及关键词提取
    多目标检测算法
    跨摄像头多目标追踪
    基于聚类技术的低价机票识别
    个性化美食推荐系统设计
    个性化同声传译系统开发
    基于用户喜好的点餐系统设计与实现
    基于CNN的车型识别
    基于室外图像的天气现象识别方法
    给你的自拍照打分
    基于python的移动端车牌号识别软件的设计与实现
    基于微博的短视频分类与处理
    基于深度学习的人体检测
    基于深度学习的时尚单品识别
    公共自行车路径规划算法实现
    基于Deep ID的人脸匹配系统
    基于语音识别的图像编辑系统的设计与实现
    基于爬虫的程序题库构建与分析
    基于爬虫的IT技术问答数据的收集与分析
    基于Python的租房辅助系统的设计与实现
    基于Python的关键词识别与统计的设计与实现
    基于HTML5的试题出卷系统
    基于脑电信号的双稳态视觉刺激系统
    高考大数据挖掘算法研究
    高考志愿智能推荐系统
    高考选考科目查询与分析系统
    基于网络爬虫的程序设计题库构建
    基于手机的垃圾分类查询软件
    基于手机的校园活动报名签到系统
    保密实验室出入检测系统
    独居老人情感状态监护系统
    大型医院手术患者身份确认系统
    基于深度学习的动漫角色生成方法研究
    基于深度学习的中文书法字体生成方法研究
    基于生成对抗网络的图像生成方法研究
    智能点名系统的设计与实现
    基因表达谱特征选择方法研究
    基于数据挖掘的上市公司舞弊风险分析
    基于TF-IDF和朴素贝叶斯方法的文档分类
    基于社交数据的用户画像系统设计与实现
    基于Java Web的音乐播放平台
    基于深度学习的商品识别算法研究
    基于无人机的目标检测与识别技术及实现
    基于文字检测与识别的技术研究
    基于web的商品类别及特征的提取与分类
    基于深度学习的人脸检测算法研究
    基于大数据分析的网店经营状况分析及排名
    面向电商平台的商品评论爬虫与分析
    基于深度学习的图像识别研究
    低价机票挖掘系统设计
    聊天机器人软件系统设计
    个性化新闻推荐系统设计
    基于web端和微信的学校智能考勤推送系统
    基于结巴分词的软件需求功能文档预处理
    基于结巴分词的法院裁判文书预处理
    基于WEB的旅行记忆系统设计与实现
    社交网络数据分析系统
    基于OpenCV的卡通贴图相机的实现
    杭州房地产数据分析系统实现
    基于视频图像的行人检测系统设计与实现
    基于内容的图像检索系统的设计与实现
    基于WebGIs的疟疾监控系统的设计与实现
    气象数据的爬取及可视化
    深度学习模型压缩方法研究
    基于迁移深度学习的图像分类
    基于机器学习的手写数字识别算法
    基于神经网络的名画赝品甄别算法开发
    基于边缘检测的交通标志定位
    基于Matlab的车牌定位方法
    基于Python的股票市场收益预测
    利用数据挖掘方法预测音乐流行趋势
    高中生选科测评系统
    基于微信的性格色彩测试系统
    产品满意度问卷调查系统
    铁路列车运行线路实时可视化展示
    基于卷积神经网络的足球控球统计系统的研究与开发
    基于OpenCV的全景图浏览器
    基于深度神经网络的医学图像自动识别
    基于深度神经网络的心电图异常信号检测
    基于爬虫的商品信息比价软件设计与实现
    基于空气监测的新风系统设计
    基于积极计算的正向情感交互平台设计与实现
    基于python的电商网页动态监控系统设计
    基于爬虫的人物关系可视化系统
    图像加密方法的设计与实现
    图像变形方法研究及比较
    电信诈骗事件收集及分析技术研究
    基于文本描述的图像生成方法研究
    基于深度学习的快速图像风格转换方法研究
    基于深度学习的图像自动描述生成方法研究
    基于SAIKU的大数据多维分析操作可视化
    基于Cocos/Unity引擎的休闲类游戏设计开发
    python气象数据分析
    基于先验知识学习的人群运动模式划分方法
    影评推荐系统的设计与实现
    网络爬虫管理系统设计与实现
    汽车车牌识别系统的设计与实现
    人脸识别考勤机的设计与实现
    图像hash特征提取与应用
    学生成绩情况分析系统
    基于DIN的音乐推荐系统
    基于大数据的新闻相似度比较系统的设计与实现
    基于大数据的舆情正负面判研系统的设计与实现
    基于python语言的多种聚类算法的交互演示系统
    基于机器学习的XSS检测方法研究
    基于深度学习的视觉跟踪方法研究
    基于HTML5的多平台网页游戏开发
    人物关系可视化
    大学生各种卡管理
    车型分类系统设计与实现
    基于光传感器的垃圾智能分类
    基于对抗学习的人脸照片-画像转换方法
    基于深度学习的字体风格转换方法
    基于深度学习的肺癌检测方法研究
    基于协同过滤的用户移动轨迹信息预测研究
    广度优先文本挖掘爬虫系统开发
    智适应算法星球系统的设计与实现
    推测照片年龄的APP软件设计与实现
    气象数据的三维快速绘制
    基于数据挖掘的单车用户特征识别
    基于视频的人流量监测系统设计与实现
    基于新浪微博的分布式爬虫以及对数据的可视化处理
    基于分布式的新闻热点网络爬虫系统与设计
    舆情分析可视化系统的设计与实现
    基于智能视觉理解的食物图片热量估算系统
    基于视频图像的目标跟踪算法研究与C++实现
    分布式图像网络爬虫引擎设计与实现
    图像场景理解技术研究
    基于视频的表情识别系统设计与实现
    眼底图像分析研究
    基于RGB-D 图像的物体检测与识别
    TCT图片自动判读方法及实现
    针对人脸的人物特征识别研究与实现
    基于深度特征的人脸图像搜索系统设计与实现
    基于深度学习的图片视频视觉问答系统研究
    伪造图像检测系统设计和实现
    基于智能手机的人脸识别
    基于深度学习的灰度图上色
    Ad Hoc网络性能仿真研究
    基于web的爬虫系统的设计与实现
    基于本体的信息安全知识抽取系统的设计与实现
    网络爬虫系统的设计与实现
    基于网络指纹的资源探测
    RSA实现中弱密钥漏洞分析
    Web服务统一身份认证协议设计与实现
    以太坊拒绝服务攻击检测
    一种隐私保护的BP神经网络的设计
    基于图像的人群聚集检测算法研究与实现
    基于OpenCV的人脸识别技术研究及应用
    行为活动理解中的弱监督学习研究
    基于粒子系统的特效设计与实现
    气候环境因素对老年COPD患者的影响分析研究
    文本情感理解技术研究
    基于深度神经网络的标题分类研究
    面向监控图像的人脸判别研究与实现
    基于深度强化学习的NPC自主训练模型构建的实现
    基于深度学习的网络游戏流失玩家预测算法研究
    假期高速公路交通流量预测算法的设计与实现
    人脸特征提取算法研究与实现
    基于小样本学习的动作识别
    基于贝叶斯网络的因果关系研究及算法包实现
    基于增强学习的物流优化算法研究
    自重多核学习研究
    并行计算若干经典算法的设计与实现
    基于深度学习的情感分类
    大规模O2O订单的物流配送方案设计与实现
    多层社交网络的链路预测算法研究
    基于反向推荐的个性化推荐算法研究
    基于循环神经网络的命名实体识别技术研究
    基于深度神经网络的高质量词向量生成方法研究
    基于神经网络的弱监督数字识别研究
    基于深度学习的场景分类研究
    基于LSTM完成对英文词性标注的设计与实现
    基于推荐算法的商品流行性预测算法研究
    群智计算算法的研究
    深度卷积神经网络及其在人脸识别中的应用
    基于深度网络的年龄预测算法研究
    基于Matlab的ECG心律不齐分类算法的程序实现
    基于深度学习的人脸检测与识别系统实现
    人物头像的卡通化算法设计与实现
    基于机器学习的问答推荐算法设计
    基于轨迹数据的最优路径推荐算法设计与实现
    基于端到端神经网络模型的词义消歧算法研究
    基于平衡树的RFID系统密钥更新算法
    深度增强学习理论研究及其在视频游戏上的应用
    基于深度学习的医学图像分割
    基于泊松分解的推荐算法研究与应用
    基于用户评论属性的隐私保护算法研究与分析
    基于Tensorflow的猫狗分类问题实现
    社会网络下算法博弈的研究与实现
    基于深度学习的视频中物体快速搜索算法
    基于SDN的防止DHCP欺骗系统设计与实现
    基于机器学习的问答评价算法设计
    基于记忆网络的视觉逻辑推理算法的研究与实现
    针对大规模数据流的实时处理研究
    FP-tree关联规则算法的实现与应用
    面向M2M网内存储控制算法研究与仿真
    基于机器学习的中文情感识别研究
    针对网络评论的分类算法研究
    机器阅读算法的可解释研究
    数字化题库与在线考试系统的设计与实现
    基于生成树的复杂网络抽样算法研究
    多视角聚类算法研究
    基于地图数据的新加坡出租车接送乘客轨迹可视化及需求预测
    分布式消息队列的设计与实现
    社交网络中的位置推荐算法研究
    基于合成数据的logo识别
    活动轨迹的语义表达与搜索技术研究
    基于目标时空轨迹的大数据分析与挖掘方法研究
    社交网络用户关系研究
    基于深度强化学习的推荐系统
    大数据环境下的隐私安全的图像特征提取及应用
    基于低秩表征的图像分割研究
    基于DCGAN的cifar10数据集生成设计与实现
    基于深度学习的图像检索
    基于文本的网络用户分析算法设计与实现
    初等数学知识库的研究与构建
    图像去雾算法的研究与实现
    基于深度网络的RGBD图像分割算法研究
    基于卷积神经网络的图像检索研究
    基于对抗神经网络的图像超分辨率算法研究
    自步多任务多视图聚类算法研究
    基于少量样本学习的图像语义分割
    基于隐私保护的数据挖掘算法研究
    监控环境下的人脸识别系统设计与实现
    属性增强的概念图匹配算法研究与应用
    基于深度学习的图像检索算法研究
    网络回溯系统中流量存储及检索方法设计与实现
    基于数据主权区块链的个人数据账户系统设计与实现
    基于主权数据区块链的身份共享应用技术
    基于数据主权区块链的共享价值代币设计与流通方法
    智能交通系统中的错误数据检测
    医疗健康档案信息可视化系统设计与实现
    基于Matlab的全景图片生成算法实现
    基于元胞自动机的复杂系统涌现现象识别方法研究
    基于Android的个人健康管理系统设计与实现
    相容图(pcg)构造算法研究
    基于深度学习的图像分割算法研究
    图像去雨算法的研究与实现
    面向网络丢包环境的视频编码优化控制算法
    基于哈希的图像分类算法研究
    一种面向非易失内存的持久化堆管理系统设计与实现
    基于CNN的图像去噪算法的实现
    图像的艺术风格渲染算法设计与实现
    基于深度学习的图片风格转化
    基于数据主权区块链的共识算法的研究
    生成式对抗网络算法及应用研究
    基于Deep Learning的图片分类
    基于语音识别技术的肺部病状检测技术研究
    利用OpenCV实现视频多目标跟踪与处理
    基于深度学习的人物头部着装分类研究与实现
    基于深度学习的糖尿病视网膜疾病诊断研究与实现
    基于rcnn的课堂人脸识别
    基于CNN的可视化追踪系统的设计实现
    基于深度学习的心律失常的自动分类
    基于python爬虫的网上商城比价系统的设计与实现
    面向儿童的影视节目智能推荐系统
    中学排课走班系统的设计与实现
    用户呼吸频率监测与实现
    广告文印交互通软件平台设计实现
    三维人脸识别技术的研究与实现
    网络文本数据分析系统设计与实现
    一种嵌入式深度卷积神经网络推理引擎
    高维数据的降维和特征选择
    基于规则推理的平面几何类人答题系统的设计与实现
    基于深度学习的车牌识别系统
    基于深度学习的异常检测
    基于深度学习的声纹识别
    基于神经网络的反垃圾邮件系统设计与实现
    三维地形绘制系统设计与实现
    基于深度学习的车辆特征识别研究与实现
    基于TensorFlow的手写汉字识别软件设计与实现
    基于关键词与同义词的主观题评分技术研究
    社交网络数据可视化研究
    基于深度学习的哈希方法在多粒度图像检索中的研究与实现
    基于深度学习的网站验证码识别系统
    基于深度学习的呼吸监测
    基于机器学习的短时交通流预测算法的研究与实现
    机器学习在MCI疾病分类中的实现
    边缘计算任务调度算法研究
    金融大数据背景下定量化研究风险投资机构对企业发展的影响
    人脸属性分类算法设计与实现
    贝叶斯张量分解
    基于RNN的诗歌生成
    普通发票识别技术研究与实现
    基于视频的火焰识别研究
    基于矩阵分解的子空间聚类研究
    心电图数据研究
    基于循环神经网络的用户语句意图分类
    基于神经网络的弱监督物体检测神经网络模型
    基于XGBoost的网络游戏流失玩家预测算法
    基于RGBD图像的边缘检测与分割
    基于深度学习的零样本和少样本学习
    基于rank-order的脉冲神经网络学习算法研究
    基于深度学习的大数据预测方法
    基于比对损失的步态识别
    轨迹数据的语义表征与学习
    基于哈希的人体动作识别
    自然场景下的文字识别系统的研究与实现
    人脸表情分类算法设计与实现
    基于多源融合的社交媒体兴趣点流行度预测系统
    区块链上智能合约的部署与应用研究
    癌症病人的Cox比例风险预测模型研究及实现
    基于视觉理解的行星及小天体表面陨石坑检测
    基于深度学习的辅助药物设计
    物体检测算法研究
    人脸识别系统关键技术研究与系统实现
    基于循环神经网络的静态代码分析
    基于音频分析的客服质量监控系统实现
    基于RNN的音乐自动生成
    基于对抗网络的可视问答
    基于数据内在结构特征的哈希检索方法
    基于深度学习提取图像视频特征
    基于深度学习的多模态检索
    基于区块链的数据交易中恶意行为的检测
    基于学科知识图谱的智能搜索平台研究与构建
    基于XGBoost的网络游戏流失玩家预测算法研究
    基于点过程的产品流行性预测
    基于时间序列预测的金融风险评估模型的研究与实现
    深度嵌入聚类算法研究
    基于机器视觉的行人重识别算法的分析与实现
    公交线路准点预测方法研究
    基于深度学习的医学图像分割算法研究
    基于CNN的高速公路流量预测
    基于CRF的初等数学命名实体识别
    基于多尺度 CNN的图片语义分割研究
    基于图像分割技术的连通区域提取算法的研究
    基于背景因素推理的目标关系识别算法研究与实现
    基于智能移动设备的非接触式人机交互系统设计与实现
    基于遮挡的人脸特征提取算法研究与实现
    表情识别应用系统的设计与实现
    深度学习在基于视频的人体动作识别上的应用
    用户评分的隐式成分信息的研究
    基于图像的场景分类算法的设计与实现
    车辆再识别技术研究
    基于图像的土壤分类算法的设计与实现
    基于深度神经网络的图像高分辨率重建系统的设计与实现
    基于生成对抗网络的图像隐私保护算法研究与实现
    基于Elastic Search的数据检索系统
    基于深度学习的人体行为识别算法研究
    基于FPGA的低功耗通用目标检测系统设计与实现
    数字图像中环境光识别和分类技术研究与实现
    基于用户GPS轨迹的热点区域发现算法
    基于局部二值模式的纹理图分类方法研究
    一种基于非易失内存的文件系统缓存设计与实现
    基于GDPR的隐私条款自动分析研究
    基于深度学习的眼底水肿病变区域自动分割系统设计与实现
    基于社交网络的用户主观倾向识别研究
    经济模型中商品推销策略和算法研究
    图像边缘检测系统设计与实现
    多选举问题的算法研究
    基于聚类算法的用户画像机制的设计与实现
    基于对抗生成网络的图像生成技术研究与实现
    Shor大数质因子分解量子算法的分析研究
    基于Android的远程视频监控管理系统的设计与实现
    基于大数据的供应商健康度评估算法研究
    基于深度学习技术的语句通顺度评估模型研究
    基于小样本的图像分类模型研究
    基于深度学习的量化交易策略研究
    平衡图分割问题的快速求解算法设计与实现
    云计算环境下的动态资源规划策略研究
    基于深度学习的人脸识别技术的实现
    动态路径规划系统可视化方法设计与实现
    图像中的显著性物体检测算法研究
    基于约束条件下的推荐系统研究
    图像压缩客观质量评价BDBR分析与改进
    基于SkipList的多版本并发控制设计与实现
    基于机器视觉的表面缺陷检测系统研究
    基于深度学习的股市时间序列分析研究
    基于FTP的远程文件传输系统设计
    数学应用题方程组的自动求解
    在线国际象棋人机对弈系统的设计与实现
    基于深度学习的图像编辑操作检测研究
    安防视频中行人手持物分析技术研究与实现
    基于深度学习的人体动作分类算法的分析与实现
    深度强化学习在多智能体合作与竞争中的应用
    基于自步学习的多视图谱聚类算法研究
    基于多角度人像的三维人脸重构
    演化多目标优化中的约束处理技术
    基于深度学习和注意力机制的视频问答算法研究
    基于深度学习的人体行为识别算法的研究与实现
    基于深度学习的交通标志识别模型的设计与实现
    基于多数据源的数据分析平台的设计与实现
    基于MATLAB的图像识别任务可视化技术研究
    基于表征学习的信息推荐算法
    区块链浏览器的设计与实现
    基于图像的车牌检测系统的设计与实现
    基于深度神经网络的多标签图像分类算法
    基于深度森林的推荐模型研究
    基于机器学习的实验数据智能算法设计
    基于LSTM的高速公路拥堵预测
    中医诊所问诊系统的设计与实现
    基于AI的代码漏洞检测方法研究与实现
    基于CNN的任意大小的隐写图像技术研究
    基于深度卷积网络的
    自然场景中的短文本实时检测与识别
    基于深度学习的图像篡改检测研究
    基于机器学习的汽车流量预测方法研究
    基于流量的用户身份及行为识别系统设计
    基于深度学习的人脸检测算法的研究与实现
    基于Faster RCNN的初等数学答题卷面自动分割
    基于Android和WiFi的无线自组织网络数据组播系统设计与实现
    量子随机游走算法的分析研究
    基于层次结构的社交网络最短路径近似算法研究
    动漫数字化系统中的深度学习自动线描算法研究
    在线路线查询的交通状况预测模拟算法研究与实现
    数据挖掘在医疗健康领域的关键技术研究
    基于Android系统的APP运行时沙箱环境设计与实现
    基于区块链的数字版权系统的设计与实现
    最大近似团问题精确算法的实现和优化
    可解释性的属性网络表征学习
    基于迁移学习的节假日高速公路流量预测
    交通卡口车辆信息精准识别系统设计与实现
    多视图半监督分类学习算法的研究
    印尼语新闻事件元素抽取模型的设计与实现
    基于粒子群优化的旅行商问题(TSP)求解方法研究
    基于协同自适应的网络空间资源探测
    量子机器学习算法的分析研究
    基于卷积神经网络的彩色图像高分辨率处理平台设计与实现
    面向物联网边缘计算的OpenNFV系统实现与优化
    基于深度学习的植物图像文字描述设计与实现
    基于OpenStack的高性能内存数据库系统实现
    基于开源ESB的客舱服务中间件研究及开发
    半监督学习工具包开发
    基于Hawkes过程用户回归时间预测的研究
    基于安卓的美食厨房软件app的设计与实现
    基于图像的人数统计系统的设计与实现
    大规模虚拟机内存管理优化
    基于深度学习的病例图像语义分割研究
    基于深度学习的植物生长样本图像分割模型设计与实现
    基于模式识别的复杂系统涌现规则判定与实现
    基于图论最优匹配的开关基站能量管理算法研究
    基于Nmap的网络漏洞探测程序设计与实现
    基于Python程序设计语言的网站开发技术研究与样例实现
    基于卷积神经网络的文本情感识别算法研究与实现
    手写数字识别系统设计与实现
    基于自步学习的逻辑回归算法研究
    基于神经网络的企业类型分类研究
    基于深度卷积网络的微表情识别技术研究
    聚类分析算法研究与应用
    植物叶片疾病检测和分类算法的设计与实现
    基于照片的规则长方体的体积测量
    基于二分图的社交网络用户行为研究
    基于流量数据的网络应用在线识别系统设计与实现
    基于深度神经网络的网站验证码识别系统设计与实现
    基于深度学习的跨视角动作识别算法
    基于机器学习的复杂系统涌现模型研究
    基于视网膜图像的生物特征识别系统实现
    基于图像的花卉分类算法的设计与实现
    中文情感倾向分析算法
    图像特征检测与描述关键技术研究及实现
    核素骨扫描图像的自动识别算法研究
    基于深度学习的图像超分辨率算法研发
    深度学习及其在文本关键词提取上的应用
    新闻热点事件的情感倾向性研究与实现
    大规模时间触发以太网调度表生成算法研究
    基于深度神经网络的移动端图片分类研究与实现
    移动应用通信特征提取与分析技术研究
    基于移动智能终端的面对面文件传输
    复杂系统涌现计算研究与实现
    面向海量机器人终端的多用户随机接入算法研究与仿真
    深度学习及其在文本分类上的应用
    基于自然语言处理的软件需求文档分析
    动态行为树构建与应用系统的设计与实现
    社交网络在推荐系统中的应用研究
    基于深度学习的病例图像分类设计与实现
    共享经济下车辆指派问题的研究与算法设计
    基于移动设备的癌症病人术后生存状态预测设计与实现
    基于深度学习的视觉问答系统设计与实现
    面向人脸识别的特征提取算法的分析与实现
    基于内容的越南语相似新闻推荐算法研究
    分布式协同感知资源管理系统的设计与实现
    基于深度学习的电影推荐系统
    基于身份认证的区块链共识算法的设计与实现
    社交网络的社团结构研究
    大学生助学金精准资助预测方法研究
    基于病毒传播模型的复杂网络抽样算法研究
    深度学习在自然语言处理系统中的应用
    基于深度学习的人脸追踪算法的研究与实现
    基于树莓派3的点对点网络通信决策系统设计与实现
    自然语言的语法语义分析
    基于自然语言处理的新闻热点话题分类技术的研究与实现
    网络流量应用载荷提取系统设计
    基于深度学习的图像细粒度分类研究
    基于深度学习的情感分析算法学习与实现
    心脏心跳声音的自动分类与病变判断系统设计与实现
    学者论文被引频次预测模型设计与实现
    用户社群识别
    高中选排课算法的设计与实现
    深度学习算法及其在异常行为检测中的应用
    基于深度学习的中值滤波取证研究
    基于CNN的人脸识别
    保留格式加密算法的设计与实现
    基于评论文本的情绪识别
    面向新闻评论的用户情感倾向识别研究与实现
    基于深度学习的链路预测
    基于异构Discriminators的生成对抗网络
    基于深度学习的社交网络热门词提取和情感分析
    基于用户呼吸的运动强度估计
    一种分布式图数据库查询引擎设计与实现
    基于OpenCV的头姿态识别系统
    基于GAN的头像生成
    基于全局时序注意力网络的视频人像重新识别技术研究
    基于PKI证书的二维码防伪系统的设计与实现
    基于机器学习的辐射源数据分类算法的研究与实现
    基于强化学习的最优定价理论研究
    面向新闻报道的命名实体识别与关系挖掘系统研究与实现
    GBRT算法模型研究及在欺诈检测中的应用
    基于深度学习的目标检测
    基于运动传感器的人体运动模式识别
    基于OpenCV的面部表情识别系统的设计与实现
    基于大数据分析的高考志愿咨询平台的设计与实现
    暗网图像采集与分类
    基于区块链的通证系统设计与开发
    基于CNN的文本分类系统的设计与实现
    边缘计算中支持优先级的多任务传输机制研究与实现
    基于CNN的文本分类系统的设计
    基于Windows系统SSDT驱动的hook技术研究
    基于MongoDB数据库的脱敏系统设计与实现
    基于深度学习的人类情感研究与分类
    适用于数字签名的密码逆向防火墙设计与实现
    基于机器学习的网络安全事件预测
    基于生成对抗网络的图片风格迁移
    基于语法分析的代码注入检测系统的设计与实现
    以太坊钱包应用设计与开发
    基于机器学习的新闻标题自动生成
    PM2.5污染实时预测及其在移动设备中的设计与实现
    视频中的行人轨迹分析与聚类
    基于VSM的词法句法相似度分析系统的设计与实现
    基于深度神经网络的民族识别研究与实现
    基于安卓的多媒体共享APP设计与实现
    个性化新闻内容推荐系统的设计与实现
    基于粒子群算法的无人机群体智能协作系统设计与实现
    基于语义模块和实体组合的初等数学自然语言理解
    基于用户语音的身份验证
    网络爬虫分析与实现
    基于深度学习的目标跟踪
    深度学习中保护数据隐私的加密方案设计与实现
    基于生成对抗网络的诗词生成
    基于深度网络的动漫视频理解研究
    基于随机擦除的Resnet实现
    牙齿图像识别技术研究
    基于Python程序设计语言的英语单词辅助记忆软件开发
    基于双目视觉的三维建模技术研究与应用
    手势识别及其在人机交互中的应用
    基于DNN的行为识别方法研究将和原型系统开发
    基于生成网络的动漫风格图片生成
    基于深度学习的图像超分辨率重建
    基于Python程序设计语言的五子棋游戏软件开发
    基于标注的图像生成网络研究
    基于层次结构社交网络的节点介数近似算法研究
    实时视屏中枪械的识别与分类
    网络视频中的谣言检测
    基于知识推理的目标检测方法
    基于知识库的视觉问答技术研究
    利用深度学习的智能手机步态识别
    深度自编码器在大规模稀疏数据中的应用研究
    大规模图像标注与检索系统的设计与实现
    机器翻译的错误检测系统
    基于自步学习的K均值算法研究
    基于深度神经网络的辅助药物设计
    基于卷积神经网络的人像重光照算法的设计与实现
    基于密度连接卷积网络的视频监测模型
    弱监督条件下的时序行为检测技术研究
    一种分布式图数据库存储引擎的设计与实现
    基于多智体深度强化学习的资源分配决策优化
    基于深度学习的图像段落生成技术
    基于视盘视杯分割的青光眼疾病筛查算法
    深度学习网络的嫁接
    基于群智能算法与区块链的新型多目标优化算法
    基于移动智能设备的GPS欺骗攻防技术
    基于百度地图的HUD导航系统的设计与实现
    在线标准化课程评价系统的设计与实现
    基于多媒体制作的内容开发及实现
    基于大数据分析的网店经营状况分析及排名
    基于概念分解模型的联合结构化图学习与聚类算法研究
    基于简单自表示模型的联合结构化图学习与聚类算法研究
    爬虫监控系统的设计与实现
    基于大数据的轻量搜索引擎系统的设计与实现
    基于R语言的多种聚类算法的交互演示系统
    基于web的云智教育在线平台设计与实现
    基于Android的旅游车服务程序的设计与实现
    基于Unity的2D 平台动作游戏的设计与实现
    基于印染数据的可视化系统设计与实现
    "基于深度学习的艺术画风格识别
    基于机器学习技术的量化交易模型设计与实现
    多对一语音转换软件设计
    基于svm的运动软件app开发
    原文链接:https://blog.csdn.net/weixin_40651515/article/details/105837775

    展开全文
  • Star 200+...支持以下功能:3D本地化3D映射路径规划路径跟随加速/制动/转向控制数据记录汽车/行人/物体检测交通信号检测交通灯识别车道检测对象跟踪传感器校准传感器融合面向云的地图连接自动化智能手机导
  • 关注并标星星CSDN云计算极客头条:速递、最新、绝对有料。这里有企业新动、这里有业界要闻,打起十二分精神,紧跟fashion你可以的!每周三次,打卡即read更快、更全了...
  • 转自:https://github.com/Trinea/android-open-projectAndroid 开源项目第一篇——个性化控件(View)篇包括ListView、ActionBar、Menu、ViewPager、Gallery、GridView、ImageView、ProgressBar、TextView、...
  • 目录 前言 目前包括: 第一部分 个性化控件(View) 一、ListView 二、ActionBar 三、Menu 四、ViewPager 、Gallery 五、GridView 六、ImageView 七、ProgressBar 八、TextView ...十三、Color...
  • 腾讯Android自动化测试实战 丁如敏 盛娟 等著 图书在版编目(CIP)数据 腾讯Android自动化测试实战 / 丁如敏等著. —北京:机械工业出版社,2016.10 ISBN 978-7-111-54875-1 Ⅰ. 腾… Ⅱ. 丁… Ⅲ. 移动终端...
  • Android设备研发术语表

    2019-03-15 14:31:36
    A 术语 简介 APSS Applications Subsystem ACDB Audio Calibration Database ADC Analog-to-Digital Conversion,模拟 - ... ...
  • Android 开源项目分类汇总,更全更新可见 codekk.com Other: English Version, 繁體版, Website ... 专注于 Android 开源分享、源码解析、框架设计、Android 内推。 我们的网站:www.codekk.com Android
  • 注 内容来自github ...Android 开源项目第一篇——个性化控件(View)篇包括ListView、ActionBar、Menu、ViewPager、Gallery、GridView、ImageView、ProgressBar、TextView、ScrollView、TimeView、TipView、FlipVi...
  • Android的移植按如下流程: (1)android linux 内核的普通驱动移植,让内核可以在目标平台上运行起来。 (2)正确挂载文件系统,确保内核启动参数和 android 源代码 system/core/rootdir 目录下的 init.rc 中的文件...
  • 第一部分 个性化控件(View) 主要介绍那些不错个性化的 View,包括 ListView、ActionBar、Menu、ViewPager、Gallery、GridView、ImageView、ProgressBar、TextView、ScrollView、TimeView、TipView、FlipView、...
  • 文章转自“ittbank”微信公众号,上篇接盘点2017 CES展会所有亮眼黑科技 (上),此篇为下篇,主要展示VR/AR/MR,智慧家庭,显示技术,无人机,音箱,便携产品,传感器,3D打印,人工智能,滑板自行车等领域的黑科技...
  • 【原文地址:...Android开源项目第一篇——个性化控件(View)篇  包括ListView、ActionBar、Menu、ViewPager、Gallery、GridView、ImageView、ProgressBar、TextView、ScrollView
  • 机器学习干货贴

    2016-10-02 01:58:28
    1.Kaggle Ensembling Guide 摘要:Creating ensembles from submission files Voting ensembles. Averaging Ra... 2.[导读]Machine Learning Theory 摘要:机器学习相关理论,Machine Learning Theory - Part 1: ...
  • 关于AR眼镜的小结

    2019-10-08 16:06:09
    根据IDC(International Data Corporation,国际数据公司,IDC是全球著名的信息技术、电信行业和消费科技咨询、顾问和活动服务专业提供商)的报告,2018年AR和VR的产值将达到178亿美元,比2017年的91亿美元增长近95...
1 2 3 4
收藏数 63
精华内容 25
关键字:

单目手势识别算法android