ar开发 unity3d
2019-01-07 13:19:32 weixin_41814169 阅读数 80

第一种方法:高通AR(Vuforia)

 

Vuforia插件下载地址(官网):

https://developer.vuforia.com/downloads/sdk

Vuforia实现图片识别

1、新建项目,导入Vuforia插件

2、将默认摄像机删除,将Vuforia/Prefabs中的ARCamera和ImageTarget预置体拖到场景中。并进行调整

3、将要识别的图片上传到高通内部图片库中。

进入高通官网(需要账号登录)

进入Develop下的Target Manager,并点击Add Database添加图片

1.

2.

添加完后点击名称进入

进入后点击Add Target添加图片(图片最好在20k以内)

添加之后效果:

4、将下载的图片导入Unity

选中ImageTarget,在Inspector面板中,ImageTargetBehaviour中Database选择刚导入的图片名称,如下

5、将扫描后要显示的模型放到ImageTarget下,并调整位置。

6、选中ARCamera,点击OpenVuforia configuration

打开后显示如下:

7、进入高通网站,

进入Develop下的LicenseManager。点击GetDevelopmentKey

1、

2.

创建好之后点击刚刚创建的项目名,获取Key

将复制的内容粘贴到上图中的AppLicenseKey 中

将Datasets中的Load StudyAR Database勾选上,还有Activate。。

打包发布即可。。。。

注:扫描的图片必须是Vuforia的图片库中的图片

 

原文地址:https://www.cnblogs.com/Mr-Miracle/p/9274884.html

2019-01-07 13:23:59 weixin_41814169 阅读数 89

EasyAR引擎简介

EasyAR是做好用的且免费的增强现实(Augmented Reality)引擎,EasyAR为Unity开发和本地开发提供了大量的可直接运行的样例。

这些样例演示了各种target的创建方式和包含流媒体和透视在视频内的视频播放,以及更加高级的实时target创建和AR涂涂乐。

 

EasyAR自问世以来从未停止向前演进,自首个公开发布版本以来的主要更新内容如下,

  • 增加更多完整实例
  • 增加多目标跟踪支持
  • 优化降低功耗
  • 移除Unity对Visual C++运行时库的依赖
  • 提升跟踪稳定性和准确性
  • 改善首次使用体验
  • 改善视频播放支持,增加透明视频支持
  • 改善前置摄像头和动态摄像头切换
  • 改善Unity支持和兼容性
  • 改善Unity接口

EasyAR的优势

EasyAR 支持使用平面目标的AR,支持1000个以上本地目标的流畅加载和识别,支持基于硬件解码的视频(包括透明视频和流媒体)的播放,支持二维码识别,支持多目标同时跟踪。

EasyAR支持PC和移动设备等多个平台,EasyAR不会显示水印,也没有识别次数限制。

EasyAR下载

官网:http://www.easyar.cn/

 

EasyAR插件的使用

1、在EasyAR官网注册账号

2、申请应用Key

进入开发中心

点击添加SDK license key

1、

2.

 添加完后,点击以添加的Key

 

 

 

将key复制下来

3、新建项目,导入EasyAR插件

4、将EasyAR/Prefabs下的EasyAR_Startup添加到场景中,将刚刚复制的key粘贴到对应位置

说明:
EasyAR_Startup,这个prefab作为一个简单的组合提供,对于通常的AR场景来说也是足够的。你可以使用EasyAR提供的其它小型prefab构建一个更加复杂的AR场景。

 

 

5、将将EasyAR/Prefabs/Primitives下的ImageTarget添加到场景中

删除Image TargetBehavior脚本,重新新建一个脚本,并继承ImageTargetBehaviour。重写代码如下:

注意:需要引用命名空间 using EasyAR;

 

 

说明:
* Path为需要识别的图片路径
* Name为需要识别的图片文件名称
* ActiveTargetOnStart: 是否在MonoBehaviour.Start被调用时加载target
* Storage: target存储位置的类型
* size:改变可视物体的大小

6、识别目标

在Assets目录下新建文件夹,StreamingAssets,将需要扫描的图片手动到此目录中

 

 

在在MyEasyARImageTarget组件上,设置相关参数,如下图:

 

 

7、将扫面图片需要显示的3D物体添加到ImageTarget下并进行调整

8、发布APK

注意,这里的Package Name 必须和EasyAR网站申请Key时所填的PackageName(Android)相同(Android平台)

 

原文地址:https://www.cnblogs.com/Mr-Miracle/p/9274882.html

 

 

 

2016-03-15 09:17:32 szy14749167352 阅读数 1629

1:按照网上教程下载导入SDK和识别图文件http://blog.csdn.net/dzyi_/article/details/22898929

2:copy the license key below into your app

找到ARCamera,把license key复制黏贴到ARCamera属性列表中的App License key

3:在ImageTarget中添加模型

4:修改ImageTarget组件中的DefaultTrackableEventHandler 脚本,还可以在识别之后的物体进行操作,添加互动和其他功能

5:编译下载运行


Vuforia示例应用提供了九种应用展示,介绍主要特点和表现出基本功能。下面就逐一简单说一下:

Image Targets (图像目标)  

图像目标示例显示了如何检测图像的目标和渲染在它上面的一个简单的3D对象。 主要功能包括:

  • 同时检测和多目标跟踪
  • 加载和激活多个设备中的数据库
  • 激活扩展跟踪
  • 管理相机功能:闪光灯和连续自动对焦 
 Cylinder Targets(圆柱追踪)

筒形靶样品显示了如何检测的圆筒形靶和围绕圆柱体的圆周动画3D对象。 主要功能包括:

  • 检测气缸目标和跟踪
  • 遮挡处理
  • 激活扩展跟踪
  • 管理相机功能:闪光灯和连续自动对焦
 Multi Targets(多目标)

多目标的示例显示了如何检测一个简单的长方体形状的三维动画和周边形状的3D对象。 主要功能包括:

  • 检测与长方体形状的3D跟踪
  • 遮挡处理
  • 激活扩展跟踪
  • 管理相机功能:闪光灯和连续自动对焦
User Defined Targets(用户自定义目标)

用户定义的目标示例显示了如何捕获和从用户选择的摄像机的视频帧运行时创建一个图像的目标。 主要功能包括:

  • 创建和管理用户定义的图像目标
  • 激活扩展跟踪
  • 管理相机功能:闪光灯和连续自动对焦
Smart Terrain(智能地形)

智能地形示例应用程序演示了如何在一个目标让聪明的地形和使用重建网格渲染的内容。 主要功能包括:

  • 从已知的目标初始化
  • 扫描表面找对象
  • 在主面绘制网格
  • 上主表面中找到的对象的渲染的箱
 Cloud Recognition (云识别)

云Reco的示例显示了如何使用云识别服务识别位于云数据库的目标。 主要功能包括:

  • 管理检测基于云的图像目标跟踪
  • 激活扩展跟踪
  • 管理相机功能:闪光灯和连续自动对焦
Text Recognition (文字识别)

文本识别样本显示在相机画面的指定区域内的动态识别英语单词。 主要功能包括:

  • 检测的英语单词和跟踪包含在默认的文字列表
  • 管理相机功能:闪光灯
Frame Markers(帧标记)

帧标记示例演示如何检测帧标记,并呈现在上面一个简单的3D对象。 主要功能包括:

  • 检测和多帧标记追踪
  • 管理相机功能:闪光灯和连续自动对焦
Virtual Button(虚拟按键)

虚拟按钮示例显示了如何开发人员可以在触发事件触及或闭塞的摄像机视图时,图像的目标定义的矩形区域。 样品呈现,当虚拟按钮中的一个被触发改变颜色的3D对象。 主要功能包括:

  • 按钮遮挡事件处理
  • 的多个虚拟按钮激活
  • 管理相机功能:闪光灯和连续自动对焦



2018-07-15 18:16:03 qq_35361471 阅读数 2025

引言:2016年的AR游戏Pokemon GO火遍全球(除了中国),让我第一次了解到AR的世界。神奇的虚拟对象出现在现实世界中,感觉小时候的游戏王这类的动画可以成为现实。 最近小生学习了高通的Vuforia,本篇着重介绍入门操作。

开发版本:Unity 2018.1.3f1

适合人群:对U3D有基础认识,想要学习AR的童鞋


一、什么是增强现实?

增强现实(Augmented Reality,简称 AR)是指把现实世界中某一区域原本不存在的信息,基于某种介质并经过仿真后再叠加到真实世界,被人类感官所感知的技术。

特点:真实世界和虚拟世界的信息集成,无缝衔接   ;具有实时交互性    ;在三维空间中定位虚拟物体


二、Vuforia学习

1、工作原理

用摄像头拍摄现实场景,通过计算机视觉技术捕获识别标记,实时记录它的位置和方向,数据平台中存储的虚拟3D模型对象与真实场景相叠加。

P.S. Unity2017.2版本开始将Vuforia内置,在安装时即可下载


2、Vuforia识别机制

通过检测自然特征点的匹配来完成,将识别图检测出的特征点保存在数据库中,然后将实时检测出真实图像中的特征点与数据库中识别图的特征点数据进行匹配

1、服务器对上传图片进行灰度处理,图片变为黑白图像

2、提取黑白图像的特征点

3、将特征点数据打包

4、程序运行时,对比特征点数据包

注意:图片中尖锐可辨,轮廓清晰的地方就是特征点,例如矩形四个角就是四个特征点,而圆形没有特征点

识别卡片需要材质较硬,不要有褶皱,轮廓清晰,丰富的细节,较高的对比度

特别注意:整幅图片的8%的区域作为功能排斥缓冲区,该区域不会被识别


3、实现步骤

<1>申请密钥

现在Vuforia的官网注册开发者账号,并申请项目密钥(License Key),免费开发者每月有1000次的扫描次数,而且左下角有水印。不过,用于开发学习也足够了。


创建完项目后,即可获取密钥,密钥是需要复制到项目中的配置文件中的

添加数据库,用于保存识别图的数据

添加识别图,点击Add Target按钮

将识别图上传至网站,生成识别图的特征点数据包,点击右侧Download Database按钮,下载Unity数据包
P.S. Rating一列中,星级越高说明特片的特征点越多,越容易识别,建议不低于三颗星

<2>前期设置

打开Player setting窗口 勾选开发VR选项

发布平台需要改为Android

Player Setting中Other Setting一栏中需要取消勾选Android TV Compatibility,因为Vuforia不支持Android TV的发布。


将官网申请的秘钥复制到Resources文件夹中VuforiaConfiguration的App license key一栏


属性:

camera device mode :设置默认识别速度优先还是质量优先

max simultaneous tracked images :最大识别图数量

max simultaneous tracked objects :最大识别对象数量

camera direction :默认摄像机是前置还是后置

device type :默认为手持handhelds


<3>导入Vuforia

如果是Unity 2017.2之前的版本,需要在官网下载Vuforia插件,然后导入Unity即可。

而这之后的版本,选择GameObject-Vuforia-AR Camera,导入AR Camera的同时,会自动导入Vuforia相关内容。

将之前在官网下载的Unity数据包导入到Unity项目中

导入Image Target,选择GameObject-Vuforia-Image


将Image Target的数据库选择为之前导入的Unity包内的数据库


将一个3D模型作为ImageTarget的子物体


然后,打包运行即可!
下图为编辑器模式下演示:

结束语:至此,您可以实现单卡显示的功能,之后,会继续记录Vuforia的其他功能,还请关注我哦!


2018-06-20 12:10:08 Wonderful_sky 阅读数 1734

Unity3d之AR小游戏


游戏简介

一个控制小飞龙躲避障碍物的小型AR跑酷游戏,有两个虚拟按钮可以控制飞龙向上或向下移动。

效果

  • 静态图

这里写图片描述

  • 动态图(太大传不上,见视频)

AR模型识别

配置步骤

这里网上教程很多,就不详细阐述了,大致过程就是去高通(vuforia)官网注册一个账号同意相关协议,下载sdk并导入。然后创建一个app关联数据库,数据库中上传待识别的图像,然后等vuforia分析完识别图的特征点之后,将target作为一个unity editor的选项下载下来后也导入unity项目。最后是项目内的配置,需要配置根据之前创建app时密钥配置unity项目,然后将预制ImageTarget的目标设置成你要识别的图片。运行项目时将待识别的图片放置在电脑摄像头范围内即可。

注意点

  • 图像的星级
    我们会注意到将识别图上传到数据库时,target项右侧会有星级显示,星级越高代表识别图的质量越高。你可能会问,何为识别图质量?识别图质量有什么用?答案是,你踩过坑之后就知道了。经试验,影响识别图最主要的因素就是待识别图的对比度,这里应该要极力避免使用有很多连续相同或相似大色块的图片,因为分析识别图特征点的原理是 根据色块边缘 来决定的,色彩变化越丰富,色块边缘、棱角就越多(如果棱角分布均匀且每个色块都很小那就再好不过了),进而特征点就越多,而特征点越多就意味着识别图质量越高。另外,以下三点则是我总结的识别图质量最主要影响的三个方面:
    • 星级越高越容易识别
    • 星级越高识别速度越快
    • 星级越高更不容易出现抖动
  • 模型的抖动问题(比较棘手)
    识别出来的模型抖动问题一直是AR图像识别中存在的难题,这一定程度上和识别算法有关,很多识别工具也还没有做得很完善。因此我们能做的就是采取一些比较初级的措施来尽可能地避免模型抖动,高级的方法当然还有待研究。初级的方法我们就是要大致了解图像识别的原理,换句话说,就是尽可能地让图像容易识别和模型容易被渲染。我的话虽然识别图是五星的,但是一开始使用了一个比较复杂的模型,导致渲染模型时抖动比较剧烈,网上找了好多有关防抖动的原因,总结起来切入点主要有以下几个(一般推荐前两个):

    • 提高识别图的星级,尽量使用容易识别的图(前面已经提到过)
    • 使用更简单的模型,减少模型的面数,会使降低渲染难度
    • 烘培场景,调整灯光。因为现场实时识别最大的问题就是光线和角度的不稳定或不恰当,导致模型会不停抖动。
    • 优化识别算法(不在我们考虑范围内)
  • 虚拟按钮的检测(尤其注意)
    虚拟按钮第一次接触的话,听起来是个很神奇的东西。因此感觉用虚拟按钮做什么都很有意思。但是这里有个很大的坑,就是 虚拟按钮必须在识别图范围内,否则无论怎么点都点不到!!! 一开始没有注意到,还以为是点击方式的问题,盲目实现导致花费了很多时间到头来发现实现不了,可以说这次项目基本时间都花在这个坑里了,因此最后也就只好交了一个比较简单的版本,这是由于没有弄清楚虚拟按钮的原理导致的。在网上搜了很多技术博客以及逛了许多技术论坛,有关的博客少之又少,因为往年没有布置过AR的作业,所以也没有师兄博客可以参考,总之就是几乎没有发现有人提过类似的问题,于是就不得已只好将目光投向虚拟按钮的实现原理。虚拟按钮的触发原理是,根据识别图被遮挡的特征点所在的位置来判断是否点击了按钮。为什么叫遮挡,遮挡了什么?这时才反应过来是虚拟按钮的点击是通过检测识别图的对应位置是否被遮挡了,所以按钮一定要在识别图范围内,更准确地说,是在特征点分布的范围内。这样就又带来一个问题,如何使在遮挡虚拟按钮时不要让识别目标丢失。因为一开始我用的识别图虽然是五星的,但特征点整体集中在中间区域,也就是我的图有很多留白,总体来说特征点太集中,遮挡一部分时虚拟按钮都还没响应就失去目标了,这是我遇到的又一个问题,至此才真正发现问题所在(当时以为把虚拟按钮放在识别图范围内了还没有效果,一度以为是触发方式的问题)。于是我就将识别图换成了一幅特征点分布比较均匀的图,并且将待识别图载体由原来用手机换成了平板(面积更大),或许还可以将待识别图打印到一张A4的彩印纸上。


地图的动态维护

地图结构

分为好多间隔相同的列,每列有三个障碍物位置,不能全放满(要留条活路),因此允许放0~2个障碍物,这些位置的障碍物都是随机生成的。

地图初始化(生成)

一开始初始化足够多的列,这里我是选择初始化5列,只要能保证移动的时候能衔接自然即可。然后针对每列的随机算法是,对每列的三个位置,随机不重复地挑选至多两个位置,然后在该位置上,随机决定该位置是否应该有障碍物。这样就可以完全使地图随机生成了。

地图维护

为了减少运行开销,对于移出视野的地图,应该进行销毁。另外,为了生成无尽的地图,应该也要在移动过程中动态生成新的地图拼接在原地图后面。这里我是采用一个队列来维护整个地图以及实现地图的移动,因为队列是不允许直接遍历的,所以我的遍历是将队列头部元素重新插入到队尾来遍历。

地图部分完整代码

public class Map : MonoBehaviour {

    private const float ydis = 0.5f;//y间隔    
    private float[] ypos;//y位置    
    private const float zdis = 2;//z间隔    
    private float[] zpos;//z位置
    //private GameObject[] barriers;//所有障碍物
    private Queue<GameObject> barriers;//所有障碍物
    private float delta;//移动距离

    // Use this for initialization
    void Start () {
        //初始化队列
        barriers = new Queue<GameObject>();     

        //初始化y位置
        ypos = new float[3];
        for (int i = 0; i < 3; i++)
        {
            ypos[i] = ydis * i + 0.3f; //0.3是偏移
        }

        //初始化z位置
        zpos = new float[5];
        for (int i = 0; i < 5; i++)
        {            
            zpos[i] = zdis * (i + 1f); //保证障碍物全在视野外
        }

        Debug.Log(ypos);
        Debug.Log(zpos);

        //移入视野前产生5列障碍物,确保移动过程中能无缝衔接
        for (int i = 0; i < 5; i++)
        {
            int count = 0; //每列的障碍物数量

            //每列的三个位置
            bool[] state = { false, false, false };
            for (int j = 0; j < 3; j++)
            {
                //随机一个位置
                int rpos = (int)Random.Range(0, 3);
                //该位置必须没有放置过
                while (state[rpos])
                {
                    rpos = (int)Random.Range(0, 3);
                }
                state[rpos] = true;

                //在该位置随机产生或不产生障碍物
                float rand = Random.Range(0, 1);
                if (rand < 0.5)
                {
                    //加载预制障碍物
                    GameObject barrier = (GameObject)Instantiate(Resources.Load("Barrier", typeof(GameObject)), 
                        new Vector3(0, ypos[rpos], zpos[i]), Quaternion.identity, null);                    
                    barrier.transform.parent = this.transform;
                    barrier.transform.position *= 0.03f;
                    barrier.transform.localScale *= 0.03f;
                    barrier.GetComponent<BoxCollider>().center = barrier.transform.position;
                    barriers.Enqueue(barrier);
                    count++;
                }

                //每列的障碍物不能超过2个
                if (count >= 2) break;
            }
        }

        //初始化距离
        delta = 0;
    }

    // Update is called once per frame
    void Update () {
        //移动

        //遍历队列
        int len = barriers.Count;
        while (len > 0)
        {
            //取出第一个
            GameObject front = barriers.Peek();
            front.transform.position -= new Vector3(0, 0, 0.0002f);                       
            barriers.Dequeue();

            //Debug.Log("front pos: " + front.transform.position);

            //消除移出视野的障碍物                       
            if (front.transform.position.z < -1 * 0.03f)
            {
                Destroy(front);
            }
            //否则插回队列尾部
            else
            {
                barriers.Enqueue(front);
            }

            len--;
        }

        //移动距离增加,注意相对坐标和绝对坐标的转换
        delta += 0.0002f / 0.03f;

        //如果移动了一个z间距,那么并产生新一列放在最后 
        if (delta >= zdis)
        {
            Debug.Log(delta);
            int count = 0; //每列的障碍物数量

            //每列的三个位置
            bool[] state = { false, false, false}; 
            for (int j = 0; j < 3; j++)
            {
                //随机一个位置
                int rpos = (int)Random.Range(0, 3);
                //该位置必须没有放置过
                while (state[rpos])
                {
                    rpos = (int)Random.Range(0, 3);
                }
                state[rpos] = true;
                Debug.Log(rpos);

                //在该位置随机产生或不产生障碍物
                float rand = Random.Range(0, 1);
                if (rand < 0.5)
                {
                    //加载预制障碍物
                    GameObject barrier = (GameObject)Instantiate(Resources.Load("Barrier", typeof(GameObject)),
                        new Vector3(0, ypos[rpos], zpos[4]), Quaternion.identity, null);
                    barrier.transform.parent = this.transform;
                    barrier.transform.position *= 0.03f;
                    barrier.transform.localScale *= 0.03f;
                    barrier.GetComponent<BoxCollider>().center = barrier.transform.position;
                    barriers.Enqueue(barrier);
                    //Debug.Log(barrier);
                    count++;
                }

                //每列的障碍物不能超过2个
                if (count >= 2) break;
            }

            delta = 0;
        }

    }    
}

其他

其他实现如按钮的控制和移动范围的判断,以及按钮的点击放大效果等,比较简单就不列出来了,调参也是比较需要耐心,花时间的。


GJM : Unity3D 高通Vuforia SDK AR 开发

阅读数 25

 一、AR概念:     增强现实(AugmentedReality,简称AR),是在虚拟现实的基础上发展起来的新技术,也被称之为混合现实。是通过计算机系统提供的信息增加用户对现实世界感知的技术,将虚拟的信息应用到真实世界,并将计算机生成的虚拟物体、场景或系统提示信息叠加到真实场景中,从而实现对现实的增强。 二、工具:在这里我们主要是用高通的VuforiaSDK来...

博文 来自: gjmvvv

vuforia 结合 unity3d 开发 AR 的 androidAPP 总结

阅读数 54

原地址:https://software.intel.com/zh-cn/blogs/2014/07/09/vuforia-unity3d-ar-androidapp/?utm_campaign=CSDN&amp;utm_source=intel.csdn.net&amp;utm_medium=Link&amp;utm_content=%20others-vuforia整个开发过程的流程是这样...

博文 来自: weixin_33752045

Unity3d vuforia增强现实(AR)

阅读数 1822

先看效果1.打开vuforia开发者网站,注册登录,下载vuforiaunitypackage,地址:https://developer.vuforia.com/downloads/sdk。2.打开unity3d,新建工程,导入vuforia-unity-6-2-6.unitypackage。3.将Assets\Vuforia\Prefabs下的ARCamera.pr

博文 来自: zouxin_88

AR For Unity3D之HiAR分析

阅读数 13

 前言关于AR和Unity的基础知识,请自行前往各自的文档中心进行科普。本文以国产的HiAR SDK为例,日后将尝试高通的vuforia SDK 我的环境基于Hi AR1.2.0 ( hiar_sdk_unity_20160809_v1.2.0_3c0e908.zip ( 47.4 MB ) )Unity3D 5.3.5f1 x64Windows 7 x64罗技摄像头(硬件),摄...

博文 来自: weixin_34335458

AR For Unity3D之HiAR分析

阅读数 8

文章目录[点击展开](?)[+]前言关于AR和Unity的基础知识,请自行前往各自的文档中心进行科普。本文以国产的HiARSDK为例,日后将尝试高通的vuforiaSDK我的环境基于HiAR1.2.0(hiar_sdk_unity_20160809_v1.2.0_3c0e908.zip(47.4M...

博文 来自: weixin_33725722
没有更多推荐了,返回首页