ar技术 unity3d

2015-07-13 22:07:48 caizedong 阅读数 5385
  • Unity 值得看的500+ 技术内容列表

    Unity3D是由Unity Technologies开发的一个让玩家轻松创建诸如三维视频游戏、建筑可视化、实时三维动画等类型互动内容的多平台的综合型游戏开发工具,是一个全面整合的专业游戏引擎。

        最近刚开始接触AR技术,结合u3d,算是对增强现实应用入个门。网上的例子不胜枚举,但有些浅尝辄止,根据自己几天来的摸索,毕竟新的技术源自国外,翻起晦涩的外文,一步一个脚印终于爬了出来。先上个史记效果图先,我取名之《鹿君下山》。



接下来说说步骤:

一、下载安装Unity Editor开发工具,我这里用的版本是最新的Unity 5.1.1f1 (32-bit)(个人注册免费版),因为用了64位发现没走通程序,换了32位(注:操作系统是64位win7),相信64位的u3d同样是可以走通的(这里不再赘述安装过程)。

二、在高通服务器注册一个账号,并通过上传图片创建自己的识别图数据,具体网址:https://developer.vuforia.com/   ps:密码可以有大小写和字母组成。

1.选择target manager

2.选择create database创建你自己的识别图数据

3.点选进去之后选add target

如图:


4.生成之后就可以下载了图片识别数据了。注意:自从vuforiaSDK升级到4.x之后,license key要加入那个一长串的序列值而不要去引入短小的那串,因为它是适用于4.0以下的哈。

5.导入后缀名为unitypackage的资源包之后,就可以开始做AR应用啦~(高通是通过在图片上注册识别点来进行识别的,所以识别度与颜色没有关系。图片越复杂识别点越多,识别效果也就越好,所以相似的图片可能识别点分布相近导致识别效果差,上传的图片最好有四颗星这样才美美哒)

三、申请license key,详细可以深入研究,主要有for device跟for cloud,云服务则是通过公钥私钥的形式进行数据传递 ,费用也是有启动费(免费)、一次性付费(499元)、云起价(99美元)



四、对上面两点的一个补充, 主要也是讲明device跟cloud的一点异同。


紧接着,我选了device之后,重复第二点的步骤,做了如下图:


五颗星当然最好,点击 Hide Features就出来这张识别点的麋鹿,是不是很简单呢?Let us try!


2015-10-07 20:47:01 snk1996 阅读数 8916
  • Unity 值得看的500+ 技术内容列表

    Unity3D是由Unity Technologies开发的一个让玩家轻松创建诸如三维视频游戏、建筑可视化、实时三维动画等类型互动内容的多平台的综合型游戏开发工具,是一个全面整合的专业游戏引擎。

用Unity3D实现简易的AR Demo

AR(Augmented Reality),即增强现实技术,是一种实时地计算摄影机影像的位置及角度并加上处理相应图像的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动,实现真实世界信息和虚拟世界信息“无缝”的集成。这种技术最早于1990年提出。随着现代电子产品运算性能的提升,增强现实的用途也越来越广,既可以用到医疗、军事模拟训练等严肃领域,也可以用来制作如miku AR等新颖有趣的应用软件。

(宅在家也可以打开次元之门了( *︾▽︾)……..)

miku AR效果展示

 

本文将利用Unity3D游戏开发引擎及高通AR插件制作一个简易的技术Demo,并发布到Android系统的手机上进行运行测试。基于高通SDK的良好的封装和Unity3D引擎强大的功能支持,使得开发该Demo流程十分简单,大大降低了AR开发的入门门槛。

 

 

**************************************************************************************************************************************************************

准备工作:

首先进行一些开发前的准备,我们需要准备好三个文件:

  • Qualcomm Vuforia 的SDK对应的Unity3D插件包

这个就是高通AR的SDK了,首先登陆QualcommVuforia的官方网站(https://developer.vuforia.com/)并注册一个账号,按要求填入信息即可。


注册完毕后登陆,点击Downloads下SDK标签里的Downloadfor Unity选项即可开始下载。此外我们看到,我们还可以直接用基于Android或IOS的SDK进行开发,但这里我们并不需要它们。


  • 待识别图片平面的二进制数据包(同样以Unity3D package的格式给出)

我们只需要将需要识别的图片上传到高通的官网,随后网站会在云端对图片进行特征值的提取和数据的生成,下载该图片对应的数据文件即可。

登陆账号后,选择Develop下的Target Manger选项卡。如果是第一次使用,应该首先新建数据库,单击Add Datebase按钮,填入数据库的名称并选择类型为Device,点击Create即可创建一个新的数据库。


进入该数据库,并点击Add Target按钮,我们可以看到,我们可以添加多种类型的识别对象,简单的如平面的图片、文字等,复杂的还可以识别立方体、圆柱甚至一般的三维物体。在这里我们选择Single Image即可,上传对应的图片并填入其宽度,最后为其命名,单击Add即可添加成功。

上传后可以看到图片相应的信息,这里的Rating代表图片的可识别质量,星级越高识别质量越好。


最后,勾选图片前的复选框,单击Download Dataset按钮并选择UnityEditor平台,即可下载上传图片的特征信息数据集。

 

  • 主角3D模型及动画数据的Unity3Dpackage包

这个就任意了,可以选用任意自己喜欢的人物模型来代替,在这里笔者使用的是Unity_Chan(Unity3D在日本的动漫化形象模型包),由于她对应的动作、声音较多,效果也比较好,为了保持下面操作的一致,建议读者第一次操作最好也选用这个。

下载地址:http://unity-chan.com/

 

完成以上三步后,你应该得到以下三个package文件:

 

终于准备好了….下面我们就开始AR软件制作之旅。

 ************************************************************************************************************************************************************

 

首先打开Unity3D软件(这里笔者选用的是Unity3D 5.1.0f3(32-bit)版本,Unity 5 64位版本与高通AR插件不兼容而报错,无法使用,低于4.6.7版本的Unity也无法使用),新建一个工程,并删除自带的摄像机与光源等物体,然后导入准备的3个package文件,保存为新的场景ar_demo.scene。

 

Assets/Vuforia/Prefabs目录下的ARCameraImageTarget预制体拖入场景之中。

ARCamera,即增强现实的虚拟摄像头,对应于移动设备的硬件镜头位置,通过画面中已经提取过特征值的图片的位置识别从而判断出镜头与图片之间的相对运动,进而调整ARCamera的位置,实现仿佛图片之上的虚拟人物也在镜头之中的假象,构造出一种虚拟的真实感。

现在我们来看一下这个预制体的各项组件:

 


Vuforia Behavior 是用来调整VR行为和相机配置的各项属性的组件。


注意在App License Key一栏中要填入你在高通AR官网上的License Mangaer选项中获取到的密钥,其他选项如是否翻转镜头、同时最大追踪的物体数量、世界中心模式等可根据需要自己控制。

Default Initialization Error脚本是用来处理初始化错误的内部脚本,不用理会。

Database Load Behavior脚本用来控制读取刚才获取到的图片特征数据文件,在导入相应的package后,可以看到对应的load active选项,注意两者都要勾选,这样系统才可以读取到图片特征信息并进行识别


Smart Terrian Track 脚本可以实现在比较复杂的平面上的图像识别,可以根据需要进行勾选。

Web Cam Behaviour 脚本用来方便开发,通过它可以调用笔记本电脑上的摄像头来实时进行项目效果的检验,但是笔者发现当这个脚本运行时会导致Unity3D开启摄像头时崩溃,考虑到这只是一个工具脚本,将其注销掉即可,这并不会影响最终在实体机上面的运行效果。

Keep Alive Behaviour 脚本是一个DontDestroy脚本,它可以实现ARCamera在多个场景之间的保持和生存,根据需要进行勾选。

Video Texture Render脚本是用来渲染图像的内部脚本。

 

 

ImageTarget,即代表待识别图片目标,它对应于你所要控制识别的那张图片的位置。

其组件有:


前两个都是基础组件,不加说明。

Image Target Behaviour脚本用来加载图片数据,类型处可以选择predefined,即表示使用从官网上云处理而获取到的图片数据,在Date Set中选择图片对应的数据库名称,在ImageTarget中选择待识别图片目标的名称,并可以进行相关宽高的设置,其它选项如智能地形追踪、扩展追踪等可以根据需要勾选。


Turn Off Behaviour 脚本是内部脚本,不用理会。

Default Trackable Event Handler 脚本是一个支持用户扩展的脚本,当相机追踪状态发生改变时(如获取目标、丢失目标等)就会执行该脚本,我们可以模仿并加入自己的控制代码。

 

设置好以上两个预制体的属性后,我们就可以把自己的模型拖到场景中,并放置在ImageTarget之上,根据需要进行动作、声音等效果的设置,但这并不是我们这里的重点,不再赘述。



直接给出控制人物的相关代码如下:

 

using UnityEngine;
using System.Collections;

public class ChanCtrl : MonoBehaviour {

	private Animator _animator;
	private AnimatorStateInfo _currentStateInfo;
	private AnimatorStateInfo _preStateInfo;

	public float waitTime = 3f;
	public bool isRandom = true;

	public AnimationClip[] _FaceClips;
	public string[] _FaceMotionName;

	public AudioClip[] _ChanVoice;

	private void ChangeFace()
	{
		_animator.SetLayerWeight(1,1);
		int index = Random.Range(0,_FaceMotionName.Length);
		_animator.CrossFade(_FaceMotionName[index],0.5f);
		if(GetComponent<AudioSource>().isPlaying)
		{
			GetComponent<AudioSource>().Stop();
		}
		GetComponent<AudioSource>().clip = _ChanVoice[index];
		GetComponent<AudioSource>().Play();
	}
	// Use this for initialization
	void Start () {
	
		_animator = GetComponent<Animator>();
		_currentStateInfo = _animator.GetCurrentAnimatorStateInfo(0);
		_preStateInfo = _currentStateInfo;

		_FaceClips = Resources.LoadAll<AnimationClip>("FaceMotion");
		_ChanVoice = Resources.LoadAll<AudioClip>("ChanVoice");

		_FaceMotionName = new string[_FaceClips.Length];
		for(int i = 0; i <_FaceClips.Length; i++)
		{
			_FaceMotionName[i] = _FaceClips[i].name;
		}

		StartCoroutine(RandomChangeMotion());
	}
	
	// Update is called once per frame
	void Update () {
	
		RaycastHit hitinfo;
		if(Input.GetMouseButtonDown(0))
		{
			if(Physics.Raycast(Camera.main.ScreenPointToRay(Input.mousePosition),out hitinfo,Mathf.Infinity))
			{
				if(hitinfo.collider.tag == "face")
				{
					ChangeFace();
				}
			}

		}
		if(_animator.GetBool("Next"))
		{
			_currentStateInfo = _animator.GetCurrentAnimatorStateInfo(0);
			if(_preStateInfo.shortNameHash != _currentStateInfo.shortNameHash)
			{
				_animator.SetBool("Next",false);
				_preStateInfo = _currentStateInfo;
			}

		}
	}


	IEnumerator RandomChangeMotion()
	{
		while(true)
		{
			if(isRandom)
			{
				_animator.SetBool("Next",true);
			}
			yield return new WaitForSeconds(waitTime);

		}
	}
}

 

 

完成以上工作后,基本就大功告成了。接下来就是项目发布了,像导出普通的APK文件一样,设置好相关的Bundle Identifier等数据,指定安卓SDK的安装目录,即可以导出相应的APK文件,从而可以安装到安卓手机上进行测试。

 

实际效果如下,Unity娘可以随机作出不同的动作,触摸脸部还可以更改表情并发出声音,是不是很萌?快来一起学习制作吧!

 

 

 



2012-12-25 15:04:36 asd237241291 阅读数 14200
  • Unity 值得看的500+ 技术内容列表

    Unity3D是由Unity Technologies开发的一个让玩家轻松创建诸如三维视频游戏、建筑可视化、实时三维动画等类型互动内容的多平台的综合型游戏开发工具,是一个全面整合的专业游戏引擎。

原创文章如需转载请注明:转载自 脱莫柔Unity3D学习之旅 QQ群:【334163814】 本文链接地址: Unity3D AR技术 vuforia SDK

公司新项目要使用ar技术(增强现实),网上搜了些相关资料发现使用最多的就是高通的vuforiaSDK。

高通 vuforia 官网 (https://developer.vuforia.com)目前最新版本是2.0 

(windows平台unity-2.0版本经尝试多次无法安装,其实是下载不完整引起的,后来换IE浏览器下载下来的就能用了,多换几种下载方式试试,囧的不明所以。) 

另外网上教材全是英文,而且全是英文,也没有告知如果设置自己的识别图(ImageTarget)。

中文网上教程少的可怜,一个人写的帖子被各种转载,人家原创写“下篇继续”,他们抄的也“下篇继续”,人家原创真的就在下篇继续了,抄袭的就果断太监了~

例子1:(本例子以window平台下unity - android 1.5版本为例)

1.下载、安装sdk。安装完成后会在安装目录获得一些unitypackage资源包.

2.新建一个unity项目,导入一下两个资源包:

vuforia-android-1-5-10.unitypackage

vuforia-imagetargets-android-1-5-10.unitypackage

3.删除自带的main camera,将AR Camera(Qualcomm Augmented Reality → Prefabs→AR Camera)托人场景。

4.接下来拖入要被识别图的背景图片-ImageTarget(Qualcomm Augmented Reality → Prefabs→ImageTarget),应用会通过检测摄像头拍摄的现实世界画面,与此图进行对比。

5.选择默认识别图:

①、选择ImageTarget,设置Image Target Behaviour(Script)组件的Data Set属性,本例子我们选StonesAndChips。 

②、选择AR Camera,设置Data Set Load Behaviour(Script)组件的Activate Data Set属性,要与ImageTarget中选择的DataSet对应,所以也选择StonesAndChips,另外要对下面的 LOAD Data Set StonesAndChips 打勾。

6.拖入模型,最好使模型成为ImageTarget的子物体,摆放好模型的位置。

7.发布到android平台,真机运行。电脑中打开这张石子图片,直接拿手机对着显示器拍摄就能看到效果。


进阶:设置自己的IamgeTarget

1.登录vuforia 官网 (https://developer.vuforia.com),注册一个账户(密码必须含有大写字母、小写字母、数字)。

2.打开资源管理页(https://developer.vuforia.com/target-manager),Create Database 创建自己的目录。

3.Add Target 上传添加识别图。

4.选择上传的识别图,点击Down 下载资源包。

5.导入资源包。

6.设置自己的识别图。请参考例子1中的第五步。

2018-06-20 12:10:08 Wonderful_sky 阅读数 3983
  • Unity 值得看的500+ 技术内容列表

    Unity3D是由Unity Technologies开发的一个让玩家轻松创建诸如三维视频游戏、建筑可视化、实时三维动画等类型互动内容的多平台的综合型游戏开发工具,是一个全面整合的专业游戏引擎。

Unity3d之AR小游戏


游戏简介

一个控制小飞龙躲避障碍物的小型AR跑酷游戏,有两个虚拟按钮可以控制飞龙向上或向下移动。

效果

  • 静态图

这里写图片描述

  • 动态图(太大传不上,见视频)

AR模型识别

配置步骤

这里网上教程很多,就不详细阐述了,大致过程就是去高通(vuforia)官网注册一个账号同意相关协议,下载sdk并导入。然后创建一个app关联数据库,数据库中上传待识别的图像,然后等vuforia分析完识别图的特征点之后,将target作为一个unity editor的选项下载下来后也导入unity项目。最后是项目内的配置,需要配置根据之前创建app时密钥配置unity项目,然后将预制ImageTarget的目标设置成你要识别的图片。运行项目时将待识别的图片放置在电脑摄像头范围内即可。

注意点

  • 图像的星级
    我们会注意到将识别图上传到数据库时,target项右侧会有星级显示,星级越高代表识别图的质量越高。你可能会问,何为识别图质量?识别图质量有什么用?答案是,你踩过坑之后就知道了。经试验,影响识别图最主要的因素就是待识别图的对比度,这里应该要极力避免使用有很多连续相同或相似大色块的图片,因为分析识别图特征点的原理是 根据色块边缘 来决定的,色彩变化越丰富,色块边缘、棱角就越多(如果棱角分布均匀且每个色块都很小那就再好不过了),进而特征点就越多,而特征点越多就意味着识别图质量越高。另外,以下三点则是我总结的识别图质量最主要影响的三个方面:
    • 星级越高越容易识别
    • 星级越高识别速度越快
    • 星级越高更不容易出现抖动
  • 模型的抖动问题(比较棘手)
    识别出来的模型抖动问题一直是AR图像识别中存在的难题,这一定程度上和识别算法有关,很多识别工具也还没有做得很完善。因此我们能做的就是采取一些比较初级的措施来尽可能地避免模型抖动,高级的方法当然还有待研究。初级的方法我们就是要大致了解图像识别的原理,换句话说,就是尽可能地让图像容易识别和模型容易被渲染。我的话虽然识别图是五星的,但是一开始使用了一个比较复杂的模型,导致渲染模型时抖动比较剧烈,网上找了好多有关防抖动的原因,总结起来切入点主要有以下几个(一般推荐前两个):

    • 提高识别图的星级,尽量使用容易识别的图(前面已经提到过)
    • 使用更简单的模型,减少模型的面数,会使降低渲染难度
    • 烘培场景,调整灯光。因为现场实时识别最大的问题就是光线和角度的不稳定或不恰当,导致模型会不停抖动。
    • 优化识别算法(不在我们考虑范围内)
  • 虚拟按钮的检测(尤其注意)
    虚拟按钮第一次接触的话,听起来是个很神奇的东西。因此感觉用虚拟按钮做什么都很有意思。但是这里有个很大的坑,就是 虚拟按钮必须在识别图范围内,否则无论怎么点都点不到!!! 一开始没有注意到,还以为是点击方式的问题,盲目实现导致花费了很多时间到头来发现实现不了,可以说这次项目基本时间都花在这个坑里了,因此最后也就只好交了一个比较简单的版本,这是由于没有弄清楚虚拟按钮的原理导致的。在网上搜了很多技术博客以及逛了许多技术论坛,有关的博客少之又少,因为往年没有布置过AR的作业,所以也没有师兄博客可以参考,总之就是几乎没有发现有人提过类似的问题,于是就不得已只好将目光投向虚拟按钮的实现原理。虚拟按钮的触发原理是,根据识别图被遮挡的特征点所在的位置来判断是否点击了按钮。为什么叫遮挡,遮挡了什么?这时才反应过来是虚拟按钮的点击是通过检测识别图的对应位置是否被遮挡了,所以按钮一定要在识别图范围内,更准确地说,是在特征点分布的范围内。这样就又带来一个问题,如何使在遮挡虚拟按钮时不要让识别目标丢失。因为一开始我用的识别图虽然是五星的,但特征点整体集中在中间区域,也就是我的图有很多留白,总体来说特征点太集中,遮挡一部分时虚拟按钮都还没响应就失去目标了,这是我遇到的又一个问题,至此才真正发现问题所在(当时以为把虚拟按钮放在识别图范围内了还没有效果,一度以为是触发方式的问题)。于是我就将识别图换成了一幅特征点分布比较均匀的图,并且将待识别图载体由原来用手机换成了平板(面积更大),或许还可以将待识别图打印到一张A4的彩印纸上。


地图的动态维护

地图结构

分为好多间隔相同的列,每列有三个障碍物位置,不能全放满(要留条活路),因此允许放0~2个障碍物,这些位置的障碍物都是随机生成的。

地图初始化(生成)

一开始初始化足够多的列,这里我是选择初始化5列,只要能保证移动的时候能衔接自然即可。然后针对每列的随机算法是,对每列的三个位置,随机不重复地挑选至多两个位置,然后在该位置上,随机决定该位置是否应该有障碍物。这样就可以完全使地图随机生成了。

地图维护

为了减少运行开销,对于移出视野的地图,应该进行销毁。另外,为了生成无尽的地图,应该也要在移动过程中动态生成新的地图拼接在原地图后面。这里我是采用一个队列来维护整个地图以及实现地图的移动,因为队列是不允许直接遍历的,所以我的遍历是将队列头部元素重新插入到队尾来遍历。

地图部分完整代码

public class Map : MonoBehaviour {

    private const float ydis = 0.5f;//y间隔    
    private float[] ypos;//y位置    
    private const float zdis = 2;//z间隔    
    private float[] zpos;//z位置
    //private GameObject[] barriers;//所有障碍物
    private Queue<GameObject> barriers;//所有障碍物
    private float delta;//移动距离

    // Use this for initialization
    void Start () {
        //初始化队列
        barriers = new Queue<GameObject>();     

        //初始化y位置
        ypos = new float[3];
        for (int i = 0; i < 3; i++)
        {
            ypos[i] = ydis * i + 0.3f; //0.3是偏移
        }

        //初始化z位置
        zpos = new float[5];
        for (int i = 0; i < 5; i++)
        {            
            zpos[i] = zdis * (i + 1f); //保证障碍物全在视野外
        }

        Debug.Log(ypos);
        Debug.Log(zpos);

        //移入视野前产生5列障碍物,确保移动过程中能无缝衔接
        for (int i = 0; i < 5; i++)
        {
            int count = 0; //每列的障碍物数量

            //每列的三个位置
            bool[] state = { false, false, false };
            for (int j = 0; j < 3; j++)
            {
                //随机一个位置
                int rpos = (int)Random.Range(0, 3);
                //该位置必须没有放置过
                while (state[rpos])
                {
                    rpos = (int)Random.Range(0, 3);
                }
                state[rpos] = true;

                //在该位置随机产生或不产生障碍物
                float rand = Random.Range(0, 1);
                if (rand < 0.5)
                {
                    //加载预制障碍物
                    GameObject barrier = (GameObject)Instantiate(Resources.Load("Barrier", typeof(GameObject)), 
                        new Vector3(0, ypos[rpos], zpos[i]), Quaternion.identity, null);                    
                    barrier.transform.parent = this.transform;
                    barrier.transform.position *= 0.03f;
                    barrier.transform.localScale *= 0.03f;
                    barrier.GetComponent<BoxCollider>().center = barrier.transform.position;
                    barriers.Enqueue(barrier);
                    count++;
                }

                //每列的障碍物不能超过2个
                if (count >= 2) break;
            }
        }

        //初始化距离
        delta = 0;
    }

    // Update is called once per frame
    void Update () {
        //移动

        //遍历队列
        int len = barriers.Count;
        while (len > 0)
        {
            //取出第一个
            GameObject front = barriers.Peek();
            front.transform.position -= new Vector3(0, 0, 0.0002f);                       
            barriers.Dequeue();

            //Debug.Log("front pos: " + front.transform.position);

            //消除移出视野的障碍物                       
            if (front.transform.position.z < -1 * 0.03f)
            {
                Destroy(front);
            }
            //否则插回队列尾部
            else
            {
                barriers.Enqueue(front);
            }

            len--;
        }

        //移动距离增加,注意相对坐标和绝对坐标的转换
        delta += 0.0002f / 0.03f;

        //如果移动了一个z间距,那么并产生新一列放在最后 
        if (delta >= zdis)
        {
            Debug.Log(delta);
            int count = 0; //每列的障碍物数量

            //每列的三个位置
            bool[] state = { false, false, false}; 
            for (int j = 0; j < 3; j++)
            {
                //随机一个位置
                int rpos = (int)Random.Range(0, 3);
                //该位置必须没有放置过
                while (state[rpos])
                {
                    rpos = (int)Random.Range(0, 3);
                }
                state[rpos] = true;
                Debug.Log(rpos);

                //在该位置随机产生或不产生障碍物
                float rand = Random.Range(0, 1);
                if (rand < 0.5)
                {
                    //加载预制障碍物
                    GameObject barrier = (GameObject)Instantiate(Resources.Load("Barrier", typeof(GameObject)),
                        new Vector3(0, ypos[rpos], zpos[4]), Quaternion.identity, null);
                    barrier.transform.parent = this.transform;
                    barrier.transform.position *= 0.03f;
                    barrier.transform.localScale *= 0.03f;
                    barrier.GetComponent<BoxCollider>().center = barrier.transform.position;
                    barriers.Enqueue(barrier);
                    //Debug.Log(barrier);
                    count++;
                }

                //每列的障碍物不能超过2个
                if (count >= 2) break;
            }

            delta = 0;
        }

    }    
}

其他

其他实现如按钮的控制和移动范围的判断,以及按钮的点击放大效果等,比较简单就不列出来了,调参也是比较需要耐心,花时间的。


2016-03-05 12:34:23 zhenghongzhi6 阅读数 1231
  • Unity 值得看的500+ 技术内容列表

    Unity3D是由Unity Technologies开发的一个让玩家轻松创建诸如三维视频游戏、建筑可视化、实时三维动画等类型互动内容的多平台的综合型游戏开发工具,是一个全面整合的专业游戏引擎。

名称 类型 支持平台
ARToolkit Free OSX Windows Android iOS
ARmedia 可试用+收费 Android iOS
CraftAR
IN2AR
Kudan
Maxst
Vuforia
NyARToolKit
Hololens
hiar 国产
EasyAR