精华内容
下载资源
问答
  • 话说这次CC建模的效果还是非常不错的。 往下看(滑动)之前来分析下,下面 哪张是用手机拍摄的照片? 哪张是做成的模型的截图? 1号 2号 下面就来分享下用手机来玩转ContextCapture(Smart3D)建模 1.拍照技巧...

    图片

    这是之前推过的一篇ContextCapture(Smart3D)建模文章
    最近有粉丝询问关于用手机拍照ContextCapture建模的问题,所以就把文章再放出供大家参考。
    话说这次CC建模的效果还是非常不错的。

    往下看(滑动)之前来分析下,下面
    哪张是用手机拍摄的照片?
    哪张是做成的模型的截图?

    图片

    1号
    图片

    2号

    下面就来分享下用手机来玩转ContextCapture(Smart3D)建模

    1.拍照技巧(捕获对象)

    ContextCapture(Smart3D)作为一个自动化建模不需过多人工干预的软件,照片的拍摄至关重要。
    照片的好坏直接影响着模型的好坏

    如何拍照?

    物体的同一部分的不同拍摄 (确保最低 60%的重叠和最大角差的 15 ° 之间连续照片) 的对象,单反或手机保持在相同的距离内可以环绕式地从物体周围均匀分隔地采集影像。

    在这里插入图片描述

    若你想要更加细化的三维模型,则需要逐步的靠近对象并采集影像。

    在这里插入图片描述

    总之拍摄时照片不仅量要足还要重叠度好。

    当时拍摄时围绕着这个石狮360度由外到内包括纹理的细节都有拍摄,共30张。
    在这里插入图片描述

    2.ContextCapture生产流程

    1. Sensor size 传感器尺寸的大小

    怎么新建工程,导入照片等一些细节这个我就不一一介绍了。

    对于用手机拍摄的照片现的疑惑就是输入传感器尺寸的大小。(当时我刚接触这个软件时关于手机相机传感器的大小真是百度了很久也测试了很多次)

    一些单反相机我们很容易在网上查到
    例如这款SongA7RIII
    它的传感器尺寸的大小会很详细的标准出来
    在这里插入图片描述

    但是对于手机,传感器大小厂家一般是不会告诉你的,你能查到的也只是传感器的类型。

    当时我拍摄时用的是索尼Xperia Z1

    在这里插入图片描述

    这是中关村在线上的参数,传感器只有类型没有参数。

    当时在网上找个各种关于手机的论坛,贴吧也没有找到具体的数值,但是找到了关于传感器尺寸的相关信息。
    在这里插入图片描述

    可以看到iphone4s的是4.13mm*3.05mm
    在这里插入图片描述

    根据这个参考值,我把索尼Xperia Z1传感器大小设置为6.4(当时还用魅蓝手机拍照跑过一次,我设置的传感器大小也是6.4效果也不错)

    2. 空三运算

    点击 在这里插入图片描述
    开始空三

    模式的选择
    一般默认的都是 Use photo positioning data
    这种是选用照片的定位数据,这项主要适用于航拍的大范围
    Automatic vertical这项主要是定位模式,针对照片方向定向
    (两个都有测试,感觉没有区别,但是既然给了这个模式肯定是有它的算法的)

    在这里插入图片描述

    剩下的就是默认选项

    在这里插入图片描述

    打开引擎开始空三运算

    3. 模型重建

    空三跑完后确认无误,就开始重建生成

    在这里插入图片描述

    但在准备模型生成之前一定要先调节生产区域

    在这里插入图片描述

    剩下的就是格式的选择等一些的设置。

    然后就是等待生成模型。。。

    具体的过程就不介绍了,关于Smart3D的教程在公众号主页中都有,大家可以自己获取。

    3.成果模型

    模型跑完后,就是开始欣赏生产的模型~!

    在这里插入图片描述

    当时的拍摄时相机位置
    在这里插入图片描述

    惊艳不?在Acute3D Viewer打开时真是惊呆了,效果还是非常不错的!

    在这里插入图片描述

    再看看细节大图
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    全是模型截图并不是照片

    等等

    我们再看个更复杂更惊艳的

    在这里插入图片描述

    这是当时另外做的一个雕刻石球的模型,由于太高顶部无法拍摄,所以生产的都是拉花。

    我们来看下细节,效果让人意外

    在这里插入图片描述
    在这里插入图片描述

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    在文物保护方面也是它的发光之处!
    真的是很让人惊叹,不得不感慨Smart3D强大!

    开头的你猜对了吗?
    1号是模型截图
    2号是手机照片

    在这里插入图片描述

    展开全文
  • 混合高斯模型的基本原理: 图像运动估计是计算机视觉中重要的部分,如何准确的在背景中提取我们想要的目标是识别的关键。 运动物体的检测分为两种情况:第一种是摄像头静止,目标在运动,背景也相对静止。例如大...

    混合高斯模型的基本原理:

    图像运动估计是计算机视觉中重要的部分,如何准确的在背景中提取出我们想要的目标是识别的关键。
    运动物体的检测分为两种情况:第一种是摄像头静止,目标在运动,背景也相对静止。例如大部分的固定摄像头拍摄到的画面;第二种是摄像头运动,目标静止或者运动,这种情况比较复杂。例如航拍画面,人拿着摄像机录像等。

    第一种情况,由于摄像头静止,所以背景相对来说是不变的,那么如果目标在运动,将某一帧图像减去背景图像,理论上来说就可以得到前景图像了。但是由于光线或者其他原因,背景中每个像素点的灰度值并不是固定不变的,它会随着环境变换而变化,但是背景的像素灰度值变换是具有一定规律的,如下图所示:

    输入图片说明

    将图像中的某一像素点提取出来,其灰度值变换如上图所示,将其迭代起来,会符合高斯分布。

    如果某一像素值 I(x,y,t)-u > 3o 则认为前景,否则认为是背景

    但是,由于环境或者变化的光线影响,像素的变化规律不一定只符合一种高斯函数,可能是多个高斯函数的叠加,于是有了混合高斯模型的概念。
    任何一种分布函数都可以看做是多个高斯分布的组合:
    输入图片说明

    混合高斯模型进行背景建模的基本思想:

    首先初始化预先定义的几个高斯模型,对高斯模型中的参数进行初始化,并求出之后将要用到的参数。其次,对于每一帧中的每一个像素进行处理,看其是否匹配某个模型,若匹配,则将其归入该模型中,并对该模型根据新的像素值进行新,若不匹配,则以该像素建立一个高斯模型,初始化参数,代替原有模型中最不可能的模型。最后选择前面几个最有可能的模型作为背景模型,为背景目标提取做铺垫。

    1.每个新像素值Xt同当前K个模型按下式进行比较,直接找到匹配新像素值的分布模型,即同该模型的均值偏差在2.5σ内:

    输入图片说明

    2.如果所匹配的模式符合背景要求,则该像素属于背景,否则属于前景。

    3.各个模式权值按如下方式进行更新,其中a是学习速率,对于匹配的模式Mk,t=1,否则Mk,t=0,然后各模式的权重进行归一化:

    输入图片说明

    4.未匹配模式的均值μ和标准差σ不变,匹配模式的参数按照如下更新:

    输入图片说明

    5.如果,第一步中没有任何模式匹配,则权重最小的模式被替换,即该模式的均值为当前像素值,标准差为初始较大值,权重为较小值。

    6.各模式根据w/a^2按降序排列,权重大、标准差小的模式排列在前。

    7.选前B个模式作为背景,B满足下式,参数T表示背景所占的比例:

    输入图片说明

    以下是代码实现

    import numpy as np
    import cv2
    import time
    import datetime
    
    colour=((0, 205, 205),(154, 250, 0),(34,34,178),(211, 0, 148),(255, 118, 72),(137, 137, 139))#定义矩形颜色
    
    cap = cv2.VideoCapture("vtest.avi") #参数为0是打开摄像头,文件名是打开视频
    
    fgbg = cv2.createBackgroundSubtractorMOG2()#混合高斯背景建模算法
    
    fourcc = cv2.VideoWriter_fourcc(*'XVID')#设置保存图片格式
    out = cv2.VideoWriter(datetime.datetime.now().strftime("%A_%d_%B_%Y_%I_%M_%S%p")+'.avi',fourcc, 10.0, (768,576))#分辨率要和原视频对应
    
    
    while True:
        ret, frame = cap.read()  #读取图片
        fgmask = fgbg.apply(frame)
    
        element = cv2.getStructuringElement(cv2.MORPH_CROSS, (3, 3))  # 形态学去噪
        fgmask = cv2.morphologyEx(fgmask, cv2.MORPH_OPEN, element)  # 开运算去噪
    
        _ ,contours, hierarchy = cv2.findContours(fgmask.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) #寻找前景
    
        count=0
        for cont in contours:
            Area = cv2.contourArea(cont)  # 计算轮廓面积
            if Area < 300:  # 过滤面积小于10的形状
                continue
    
            count += 1  # 计数加一
    
            print("{}-prospect:{}".format(count,Area),end="  ") #打印出每个前景的面积
    
            rect = cv2.boundingRect(cont) #提取矩形坐标
    
            print("x:{} y:{}".format(rect[0],rect[1]))#打印坐标
    
            cv2.rectangle(frame,(rect[0],rect[1]),(rect[0]+rect[2],rect[1]+rect[3]),colour[count%6],1)#原图上绘制矩形
            cv2.rectangle(fgmask,(rect[0],rect[1]),(rect[0]+rect[2],rect[1]+rect[3]),(0xff, 0xff, 0xff), 1)  #黑白前景上绘制矩形
    
            y = 10 if rect[1] < 10 else rect[1]  # 防止编号到图片之外
            cv2.putText(frame, str(count), (rect[0], y), cv2.FONT_HERSHEY_COMPLEX, 0.4, (0, 255, 0), 1)  # 在前景上写上编号
    
    
    
        cv2.putText(frame, "count:", (5, 20), cv2.FONT_HERSHEY_COMPLEX, 0.6, (0, 255, 0), 1) #显示总数
        cv2.putText(frame, str(count), (75, 20), cv2.FONT_HERSHEY_COMPLEX, 0.6, (0, 255, 0), 1)
        print("----------------------------")
    
        cv2.imshow('frame', frame)#在原图上标注
        cv2.imshow('frame2', fgmask)  # 以黑白的形式显示前景和背景
        out.write(frame)
        k = cv2.waitKey(30)&0xff  #按esc退出
        if k == 27:
            break
    
    
    out.release()#释放文件
    cap.release()
    cv2.destoryAllWindows()#关闭所有窗口
    

    输入图片说明

    height="576" width="768" src="https://v.qq.com/x/page/p08512qa8vl.html" allowfullscreen="">
    展开全文
  • 现在的情况是,因为要最后转换到android程序,所以使用了c++ 和opencv 对图像进行处理,然后训练模型还是使用python下的tensorflow 。现在两边的框架大致上搭好了,整体获得的效果如下,也就是说在稳点的情况下...

    现在的情况是,因为要最后转换到android程序,所以使用了c++ 和opencv 对图像进行处理,然后训练模型还是使用python下的tensorflow 。

    现在两边的框架大致上搭好了,整体获得的效果如下,也就是说在稳点的情况下(获取边缘时候阈值的大小 以及边缘线本身像素问题,拍照图片的角度导致的图像的四个倾向,导致透视变换时候四个顶点的确定,这几个问题都没有做自动判断调整,等以后),模块1(c++程序)这块能够正常的获得结果,

    这里写图片描述

    在模块2(python脚本)这块能够利用训练好的模型获得预测结果(正确率没有达到效果,一个是训练时的数据有点少,测试集使用的是训练集的数据,另外一个是在正式的预测时候的数据的处理上的效果。但是现在不管了,至少能够很好的识别b 和d 了)。
    这里写图片描述

    还有一个大的问题就是两者之间的连通,现在获取的图片我采取的是先转换为mnist的格式(因为网上的关于这些的大多是直接用的是mnist数据,很少说到怎么使用自己的数据。可能没找到。)

    在我的想法是:
    一个是在两种编程语言之间的通信(比如c++调用python脚本)。
    另一个是从tensorflow出发,直接c++调用tensorflow的模型。
    我觉得暂时优先考虑第二个,虽然第二个网上教程少(暂时看到的),但是具有很好的学习型,而且第一个直接调脚本坑应该也挺多的。
    。。所以先占个坑放这。

    展开全文
  • 根据数字像机拍摄的两幅正面着装人体图像和侧面图像,重建着装人体三维模型的雅可比(Jacobi)算法,在利用平面旋转变换矩阵对基本矩阵进行正交相似变换雅可比方法处理后,计算特征点三维坐标并组成稀疏的三维网格...
  • 针对传统单矢量模型预测控制负载电流谐波含量大和多矢量模型预测控制开关频率高、功率损耗大的问题,在给传统双矢量并网逆变器模型预测电流控制方法的基础上,提出改进的低损耗并网逆变器双矢量模型预测电流控制...
  • 需求说明:输入拍摄的文本页面图片,目标是训练一个可以正确检测图片上的图和表格并在图片画其bounding box,之前用yolo也做过检测,不过效果不太好,会出现检测不准确甚至漏检情况,于是这次想尝试api的检测效果...

    结合上一章内容,本章节将结合实际需要,使用Tensorflow Object Detection API从头训练符合自己需求的图和表的检测分类模型.

    需求说明:输入拍摄的文本页面图片,目标是训练一个可以正确检测图片上的图和表格并在图片画出其bounding box,之前用yolo也做过检测,不过效果不太好,会出现检测不准确甚至漏检情况,于是这次想尝试api的检测效果,模型使用ssd_mobilenet_v2.

    1,训练数据准备:

    因为之前用yolo做过检测,所以训练数据都放在一个文件夹下,另外还有一个.txt文件,.txt文件包含了图片路径,图标的bounding box及对应的类别,如图:

    每行分别代表图片路径 xmin ymin xmax ymax label(0代表graph, 1代表table),一张图片可能有多个图表,所以每一行图片可能有多个xmin ymin xmax ymax label.我分别有两个这样的.txt文件,一个是训练集,一个是测试集,在后续生成tfrecode格式数据的时候分别生成即可.

    2,tfrecord格式训练数据生成:

    tfrecord训练数据的生成网上有很多,我参照官网代码生成自己的数据,tfrecord生成的时候可以选择生成一个或者多个.record文件,我参照最新代码生成多个文件,具体代码参考https://pan.baidu.com/s/1WO2OmMFyyBvqeOxtX9-xyQ,下载后将该代码放在下载的api的research目录下,然后python3 creratet_table_tf_record.py --data_dir=存放原始图片的路径 --output_dir=存放生成的数据的目录(训练和测试目录一样)执行即可.记得6行改成直接的图片路径,分别生成训练和测试数据时候114行table_test.record记得改(table_test.record, table_train.record),这是生成的训练和测试的名字.执行完后会在指定目录生成多个文件:

    3,准备训练配置文件:

    本次使用ssd_mobilenet_v2检测模型,所以将object_detection/samples/configs/ssd_mobilenet_v2_coco.config复制到存放刚刚生成的record文件的目录下,然后在该目录新建table_label_map.pbtxt文件,并添加内容:

    因为tfrecord格式中的label都是从1开始,所以这从1开始(虽然txt中graph为0,table为1,但是在生成tfrecord的时候代码中已经把graph改成了1,table改成了2,所以和这里是一样的)

    然后在该目录继续执行

    sed -i "s|PATH_TO_BE_CONFIGURED|指定存放tfrecord数据的当前路径|g" ssd_mobilenet_v2_coco.config, (注意这是一行代码,例如
    sed -i "s|PATH_TO_BE_CONFIGURED|/home/user/model/reaearch/objectdetect/data|g" ssd_mobilenet_v2_coco.config)

    4,检测模型训练:

    modify models/research/object_detection/model_main.py after imports add the following

    tf.logging.set_verbosity(tf.logging.INFO)

    在安装的api目录的research目录下执行(本人用的python3)

    python3 object_detection/model_main.py \
        --pipeline_config_path=ssd_mobilenet_v2_coco.config文件路径 \
        --model_dir=存放训练模型的路径(没有会自己创建) \
        --num_train_steps=50000 \
        --num_eval_steps=2000 \
        --alsologtostderr

    (num_train_steps是训练次数,本人是gpu训练,所以指定五万次)

    5,tensorboard 查看训练过程:

    执行tensorboard --logdir model_dir路径,然后打开tensorboard就能看到训练过程和训练图片,如图:

    6,分类模型预测:

    tensorboard object detect api中的models/research/objectdetect/目录下提供了一个object_detection_tutorial.ipynb文件可以做预测,本人对其进行改造,将其写入.py文件中进行预测,预测前先要将训练的模型转为.pb文件,上篇博客提到了如何操作,而且官网也有说明,很简单的,这里就不在阐述.此外,你也可以直接在.ipynb文件预测都可以的,预测结果:

     

    可以看到预测不错,下一步将把该模型迁移到android平台进行测试....

    展开全文
  • 就是用相机拍摄高铁站的一段视频,然后捕捉高铁站的点云数据,根据点云重建粗略的高铁站模型网格,然后将拍摄的视频投影到网格上,实现较为真实的效果。在做投影效果的时候,突然想到,这和FPS游戏里喷漆的效果...
  • 为了实现第一人称视角下面壁时的手臂不怼到墙里的效果,我使用两个摄像机:FPCamera 和 GunCamera,使用Camera组件的Culling Mask属性让FPCamera拍摄除手臂之外的所有场景,GunCamera只拍摄...
  • 说起相机大家都比较熟悉,现在已经是手机的标配和卖点,而且做的非常便捷易用,随便按都能拍出不错的照片,但如果想更手动、更专业一点,或者将相机用于工业应用(如机器视觉、摄影测量等),还是需要了解一下成像方面...
  • Pollefeys 等人的三维重建系统使用自带的单目摄像机绕着目标拍摄一系列的连续图像,通过处理这些图像来重建三维模型,获取的图片越多重建出效果就越真实。但是该算法比较复杂,耗时较长。Snavely 等人提出了一种...
  • 介绍了基于开关函数的三电平并联型有源电力滤波器工作原理,建立了该种有源电力滤波器的数学模型,并提出一种三电平并联型有源电力滤波器的无差控制方案。该方案采用ipiq法检测谐波电流,根据当前采样时刻得到的负载...
  • 移轴镜摄影(Tilt-shift photography)泛指利用移轴镜头创作的作品,所拍摄的照片效果就像是缩微模型一样,非常特别。 移轴镜头的作用,本来主要是用来修正以普通广角镜拍照时所产生的透视问题, 但后来却被...
  • 图形学离线渲染中常用的透视摄像机模型时根据小孔成像的原理建立的,其实现通常是从clip_image002向成像平面上发射ray,并把trace这条ray的...背景中的景物则离焦平面较远,呈现模糊的效果。对离线渲染而言,这一...
  • 通过小组会议与讨论,基于卡通角色——小码属于电脑世界,从代码中诞生的特点,创作了一个未来机器人的形象。他的表情为一个显示屏,通过更换...渲染更加逼真动感的效果。下面将附上没有表情贴图时的小码形象。...
  • 施工场景下的行为识别领域。...行为识别方面最近的论文较多,能实用性的目前敲定ECO模型;在跟踪过程中某一个工人的时空管道数据的抽取也是一个难题等等。无论如何,这块硬骨头得啃下来。 行为识别模
  • 张正友相机标定法

    千次阅读 2019-04-13 21:39:49
    因为每个镜头在生产和组装过程中可能会出现不同程度的畸变(畸变是一种光学错位现象,通俗的讲就是本来是直线的物体,实际拍出效果是扭曲的);而通过相机标定可以矫正这种畸变,避免拍出的图像出现畸变。另外,...
  • TensorRT学习总结

    2019-04-13 18:00:00
    TensorRT是什么 ...深度学习 训练 部署 平常自学深度学习的时候关注的更多...你自己写的模型效果是很难优于成熟的知名的模型的. 以无人驾驶为例,拍摄到图片后,芯片上的加载的模型要能够识别图片里是什么.对自动驾驶...
  • sipeed 2021.6.12

    2021-06-12 15:12:49
    另外训练集一定要用k210拍,因为k210摄像头拍出的画质和手机拍出的画质差别很大 用k210拍十几张图片,然后用电脑进行拉伸变换等处理就可以产生几百字训练集了 【Maixpy】询问YOLOV2检测模型测试效果不佳的优化改进...
  • 随着京东App 6.6.3版本的更新,京东试试3D虚拟试衣功能正式上线,消费者可按照自己的身材比例创建专属的3D模型,而试穿效果则可以完全依照模型来展现。据了解,这个系统未来还将实现厘米级精度的服装展示效果,当...
  • 给定一幅被扩展的输入图像,从网络上获取包含相关场景的散乱图片集,重建三维模型后对每幅图片颜色迁移,使得每张图片与输入图像的颜色基调保持一致;在重建的三维模型的基础上,将超像素分割后的候选集图片都形变...
  • 一键智能抠图-原理实现

    千次阅读 2020-08-31 13:54:37
    1. 效果秀 有些朋友已经体验过了cvpy.net最近新上的一键智能抠图和换...可以看到,模型成功识别了前景区域,而且边缘等细节识别的非常好。 再来看一张人物照的抠图效果: 注意看左手指缝和肩膀后面的那一缕头发,称
  • 建立了光学防抖的控制模型,采用PI D控制算法,利用MATLAB仿真得出防抖效果;在关闭和开启光学防抖条件下,对成像目标拍摄并经处理后得到2组8幅150×112像素的图像。在基于频率域的直方图上,有光学防抖的图像增加10个...
  • 要让Jetson Nano识别宠物,需要深度学习模型的辅助,有两种思路,一个是自己训练一个模型,另一种思路是使用PaddHub的预训练模型。 以下是我在做智能宠物看护助手时想到的一些问题以及相应的解决方案。 1.训练一个...
  • code https://github.com/jiangsutx/SRN-Deblur 代码亲测效果确实不错,但是对于我自己的照片出现bad case,跟作者确认过,确实存在。可能是因为作者的模型主要针对运动模糊,一般失焦模糊容易受到矫枉过正的...
  • Kıvırcık-crx插件

    2021-04-01 18:57:12
    这些产品拍摄每类别中的富含视觉效果。 您可以通过选择您的产品安全购物。还包括男性和女性项链模型。您还可以根据其尺寸进行比较产品。男性项链类被添加到新模型中。 轻松购物安全付款 您可以轻松添加您在购物车中...
  • 经过连续学习得到了鲁棒性强、遗忘度低的检测模型,该模型可以准确快速地从海量复杂背景下的光学遥感影像中识别机场目标,而且对薄云遮挡以及卫星拍摄不全的机场有较好的识别效果。选取国产吉林一号卫星影像数据集...
  • 数码相机拍摄的视频往往带有因为拍摄人手的不稳定而引入的抖动,因此该文给了一个视频抖动矫正方案,包括全局运动估计、运动的抖动分量滤除、抖动补偿3个模块。对摄像机运动模型,该文考虑了最常见的水平、垂直...
  • 为了准确测量纳米颗粒的尺寸,依据透射电子显微镜拍摄的纳米颗粒图像,提出了一种基于U-Net卷积神经网络...研究结果表明,所提方法能准确分割图像中的纳米颗粒,对边缘模糊和强度不均的纳米颗粒的分割效果提升显著。
  • 电贝司虚拟乐器

    2020-07-23 17:38:45
    IK Multimedia MODO BASS是一款为专业人士设计制作的低音虚拟乐器,这款软件拥有独立的音乐软件界面,可以帮助大家制作更加逼真出色的音乐效果。IK Multimedia MODO BASS也可以作为插件,在常见的音乐制作工具中...
  • 对人体参数和裙装参数进行相关分析、回归分析,找它们之间的匹配性,并对存在显著相关性的参数进行模型预测。实验结果表明,人体参数与裙装参数联系紧密,其中腰围和腰臀围差对斜裙造型的影响最大。

空空如也

空空如也

1 2 3 4
收藏数 61
精华内容 24
关键字:

拍出模型效果