精华内容
下载资源
问答
  • 含A Mathematical Introduction to Robotic Manipulation.1994_li_book_06、Raspberry Pi机器人开发指南(OCR)、机器人学 建模、规划与控制(OCR)、机器人学++机器视觉与控制++MATLAB算法基础OCR)、树莓派机器人实战...
  • 利用树莓派和 Arduino开发机器人

    千次阅读 2017-10-18 23:26:50
    Thecorpora 的发布的 “Q.bo One” 机器人基于 RPi 3 和 Arduino,并提供立体相机、麦克风、扬声器,以及视觉和语言识别。

    Thecorpora 的发布的 “Q.bo One” 机器人基于 RPi 3 和 Arduino,并提供立体相机、麦克风、扬声器,以及视觉和语言识别。

    2010 年,作为一个开源概念验证和用于探索 AI 在多传感器、交互式机器人的能力的研究项目,机器人开发商 Francisco Paz 及它在巴塞罗那的 Thecorpora 公司推出了首款 Qbo “Cue-be-oh” 机器人。在今年 2 月移动世界大会上的预览之后,Thecorpora 把它放到了 Indiegogo 上,与 Arrow 合作推出了第一个批量生产的社交机器人版本。


    像原来一样,新的 Q.bo One 有一个带眼睛的球形头(双立体相机)、耳朵(3 个麦克风)和嘴(扬声器),并由 WiFi 和蓝牙控制。 Q.bo One 也同样采用开源 Linux 软件和开放规格硬件。然而,它不是使用基于 Intel Atom 的 Mini-ITX 板,而是在与 Arduino 兼容的主板相连的 Raspberry Pi 3 上运行 Raspbian。


    Q.bo One 于 7 月中旬在 Indiegogo 上架,起价为 369 美元(早期买家)或 399 美元,有包括内置的树莓派 3 和基于 Arduino 的 “Qboard” 控制器板。它还有售价 $499 的完整套装。目前,Indiegogo 上的众筹目标是 $100,000,现在大概达成了 15%,并且它 12 月出货。

    更专业的机器人工程师和嵌入式开发人员可能会想要使用价值 $99 的只有树莓派和 Qboard PCB 和软件的版本,或者提供没有电路板的机器人套件的 $249 版本。使用此版本,你可以用自己的 Arduino 控制器替换 Qboard,并将树莓派 3 替换为另一个 Linux SBC。该公司列出了 Banana Pi、BeagleBone、Tinker Board 以及即将退市的 Intel Edison,作为兼容替代品的示例。


    与 2010 年的 Qbo 不同,Q.bo One 除了球面头部之外无法移动,它可以在双重伺服系统的帮助下在底座上旋转,以便跟踪声音和动作。Robotis Dynamixel 舵机同样开源,树莓派基于 TurtleBot 3 机器人工具包,除了左右之外,还可以上下移动。


    Q.bo One 类似于基于 Linux 的 Jibo “社交机器人”,它于 2014 年在 Indiegogo 众筹,最后达到 360 万美元。然而,Jibo 还没有出货,最近的推迟迫使它在今年的某个时候发布一个版本。


    我们大胆预测 Q.bo One 将会在 2017 年接近 12 月出货。核心技术和 AI 软件已被证明,而树莓派和 Arduino 技术也是如此。Qboard 主板已经由 Arrow 制造和认证。

    开源设计表明,即使是移动版本也不会有问题。这使它更像是滚动的人形生物 Pepper,这是一个来自 Softbank 和 Aldeberan 类似的人工智能对话机器人。

    Q.bo One 自原始版以来添加了一些技巧,例如由 20 个 LED 组成的“嘴巴”, 它以不同的、可编程的方式在语音中模仿嘴唇开合。如果你想点击机器人获得关注,那么它的头上还有三个触摸传感器。但是,你其实只需要说话就行,而 Q.bo One 会像一个可卡犬一样转身并凝视着你。

    接口和你在树莓派 3 上的一样,它在我们的 2017 黑客电路板调查中消灭了其他对手。为树莓派 3 的 WiFi 和蓝牙安装了天线。

    Qboard(也称为 Q.board)在 Atmel ATSAMD21 MCU 上运行 Arduino 代码,并有三个麦克风、扬声器、触摸传感器、Dynamixel 控制器和用于嘴巴的 LED 矩阵。其他功能包括 GPIO、I2C接口和可连接到台式机的 micro-USB 口。

    Q.bo One 可以识别脸部和追踪移动,机器人甚至可以在镜子中识别自己。在云连接的帮助下,机器人可以识别并与其他 Q.bo One 机器人交谈。机器人可以在自然语言处理的帮助下回答问题,并通过文字转语音朗读。

    可以使用 Scratch 编程,它是机器人的主要功能,可以教孩子关于机器人和编程。机器人也是为教育者和制造者设计的,可以作为老年人的伴侣。

    基于 Raspbian 的软件使用 OpenCV 进行视觉处理,并可以使用各种语言(包括 C++)进行编程。该软件还提供了 IBM Bluemix、NodeRED 和 ROS 的钩子。大概你也可以整合 Alexa 或 Google Assistant语音代理,虽然 Thecorpora 没有提及这一点。

    更多信息

    Q.bo One 在 7 月中旬在 Indiegogo 上架,起价为完整套件 $369 和完整组合 $499 。出货预计在 2017 年 12 月。更多信息请参见 Q.bo One 的 Indiegogo 页面 和Thecorpora 网站。

    via: http://linuxgizmos.com/open-source-social-robot-kit-runs-on-raspberry-pi-and-arduino/

    作者:Eric Brown 译者:geekpi 校对:wxy


    展开全文
  • 本课题研究的目的包括,设计并构建基于Raspberry Pi的视觉移动AGV控制系统,实现自主移动机器人视觉导航功能。本论文完成如下几个方面的研究内容。机器人视觉导航图像处理算法设计,驱动部分设计,跟踪算法设计。 ...
  • 以低成本树莓派作为下位机机器人平台, 通过在上位机运行事先训练好的深度学习SSD模型实现对人手的目标检测与视觉追踪. 基于谷歌TensorFlow深度学习框架和美国印第安纳大学EgoHands数据集对SSD模型进行训练. 机器人...
  • 机器人视觉硬件方案设计对比

    千次阅读 2018-05-01 19:00:07
    # 机器人视觉硬件方案设计对比标签(空格分隔): 机器人视觉导航 openmv 树莓派 opencv---## 背景去武汉比赛的时候,我带着树莓派加摄像头的方案过去了,心里面还得挺得意洋洋的,觉得这么做的人肯定不多。...
    # 机器人视觉硬件方案设计对比

    标签(空格分隔): 机器人视觉导航 openmv 树莓派 opencv

    ---
    ## 背景
    去武汉比赛的时候,我带着树莓派加摄像头的方案过去了,心里面还得挺得意洋洋的,觉得这么做的人肯定不多。结果到了现场看了其他人做的作品感到被啪啪地打脸,总之差距还是有不少的。比赛完后,我不要脸地凑过去和一些其他学校的同学交流了一下,又上网查阅了相关的资料,对机器人视觉导航硬件方案作出一些对比和总结,方便之后的同学。
        *顺便提一句,本文章采用markdown格式编辑,以作为练习。*
    ## **方案对比**

    ### 1. “树莓派摄像头+树莓派”组合

    这就是我在本次比赛中使用的方案。树莓派作为一种微型计算机,功能强大,作为图片处理的核心完全足够,实际运行时内存占用率甚至没有超过一半。程序则选择了opencv库。这是一款专门针对图像处理而建立的库,主流为c++,但也有python接口,但是Python的中文的说明文档却很少,以至于我不得不翻看英文的API接口说明书好长时间。

    摄像头采用的树莓派官方的摄像头模块,体积小巧,像素很高,价格在百元左右,不是很贵,而且也可以用USB摄像头来替代。摄像头和arduino一样由树莓派供电。树莓派的供电没有专门的电池,很麻烦,所以直接在网上淘宝到了一块树莓派的电源扩展板(很好用),利用可充电的锂电池解决供电问题。
       
    在程序设计过程中给我感觉的是相关文章的缺少(也有可能我没有找对路子),以至于几乎所有的框架都是我自己搭建起来的,在其中还夹杂着我的一些诸如权重惩罚,群体决策等来自ML学习时的一些小的灵感,很有一种成就感。当然,也花了很长时间。
       
    不可否认的是,这个组合的问题也很多,但最关键的还是一个问题:重量。对于机器人而言,过重的上半身会极大地影响其平衡和稳定性,然而树莓派的板子本身就很重很大,加上电池扩展板和摄像头以及连接线对机器人的平衡性的影响是致命的。
       
    当然,它也有自己的优势。由于处理器性能很高,而且opencv的自由度很高,所以我们能用它来完成一些特定或者特殊的任务,比如人脸识别等。而且还可以做一些实时图像处理的项目。虽然在比赛中这些优势没什么用。
       
    ### 2. openmv3 组合
    在来比赛之前,我还真没有听说过这个产品,甚至网上搜索相关学习文章时也没有发现。直到我来到了比赛现场……这真是一个悲伤的故事。

    不过没关系,我们先看看它是什么样子的吧。

    ![openmv板子][1]

    没错,极其小巧玲珑,并且可以直接与arduino相连,换句话说这个小小的板子等于之前“树莓派+摄像头+电源扩展板+数据线+聚合物锂电池”一堆东西的总和,其轻量化和小型化程度直接吊打前一种方案而毫无压力,极大地改善了机器人的平衡性能。这东西貌似是2015年刚出来的,是一个开源,低成本,功能强大的机器视觉模块。功能也很强大:
       
    > 以STM32F427CPU为核心,集成了OV7725摄像头芯片,在小巧的硬件模块上,用C语言高效地实现了核心机器视 觉算法,提供Python编程接口。
    > OpenMV的定位是“带机器视觉功能的“Arduino”。它可以通过UART,I2C,SPI,AsyncSerial以及GPIO等控制其 他的硬件,甚至是单片机模块。

    总的来说,openmv也有自己的库和接口,有大量的实例,有反馈系统,极大地减轻了工程量,当然,降低的也有学习量。它的功能强大,涉及图像处理,视频处理,追踪检测等多个领域。它在图像的专业处理固然表现的不如之前的方案,但是作为简单的机器人视觉导航已经足够。
       
    ## **比赛经验总结(仿人竞速)** ##
    1. 纸质比赛场地不适合红外线传感器,红外传感器要架高,用电工胶布包起来,但更推荐激光传感器,它的抗干扰能力更强。
    2. 结构调整:一般17舵机以上,有明显的膝盖结构,要将胯间拉大,上半身做小以保持平衡。膝盖的连接件采用倾斜或者水平结构。如果上半身重量过重,脚底板可以增加一定重量。整体结构建议采用毛铁,3D打印件有弹性,强度也不够。淘宝上有现成的零件,不要自己打磨和加工来浪费宝贵的时间。
    3. 摄像头:放置于底板上倾斜向下,或者腰部延伸向下拍摄,图像处理芯片采用openmv3,相比较树莓派加摄像头加电池的笨重的组合,前者的体积较小且重量更轻。摄像头必须固定,用刚性连接避免抖动。摄像区域为脚前的一小块。为了配合图像拍摄,每次步伐都很小,保证稳定,黑线始终在摄像范围内。
    4. 障碍赛跨障动作可以采用直跨(抬腿或者后仰迈腿),但是斜跨的成功率更高(有一定概率将障碍推开而不是推到)。障碍物侦测可以选用超声波,激光传感器或者光电感应,超声波双脚一致对称,距离一致或者相差不大才执行越障动作。
    5. 动作组调整:每次步伐要小,转弯不能分解为转弯和直走,而要直接斜直线。

       
      [1]: http://image108.360doc.com/DownloadImg/2017/07/1713/106045621_8.png
    展开全文
  • 树莓派单目摄像头和一个装有三个传感器,可以控制左右前进的小车。 在一个2mx2m的地面上,有两端有两个离地面15cm的二维码。 地面中间随机摆放可乐罐(可口可乐罐)。要求小车一个二维码位置出发,避开障碍物...
  • 基于机器视觉的可移动裂纹检测机器人是一款采用最新的图像处理技术与机器人嵌入式技术相结合的裂纹检测机器人。本设备旨在满足隧道、桥梁、道路、大坝等行业的裂纹分析检测需求,为行业用户提供代替传统人力的无人...
  • (一)视觉模块 机器人顶端安装手机支架,其下连接多自由度的舵机云台,用于追踪单平面内的人脸偏移。 (二)运动模块 机器人底部为传动机构,譬如麦克纳姆轮的全向特性,便于机器人平移,保持摄像头平稳。 (三...

    智能追录器

    背景设想:基于自拍杆的灵感,是否需要这样的一个机器人,帮你录像,或者拍照 。

    (一)视觉模块


    机器人顶端安装手机支架,其下连接多自由度的舵机云台,用于追踪单平面内的人脸偏移。


    (二)运动模块


    机器人底部为传动机构,譬如麦克纳姆轮的全向特性,便于机器人平移,保持摄像头平稳。


    (三)主控模块


    核心主控采用树莓派,便于应用python进行图像处理及机器学习对人脸进行追踪。


    (四)运行机制


    思路是根据识别的人脸进行机器人的全身动作,保证人脸处于画面的中心相对阈值之内,此外随着人物的行进及动作,保证人脸相对于画面的一个相对比例大小。


    (五)附加


    1.在机器人的行进动作之中采用传统的PID调节,以及附加避障,陀螺仪检测运动状态等功能以确保机器人自身处于安全状态。

    2.采用手机与机器人局域网下连接传送视频流

    3.识别手势进行拍照


    转载于:https://blog.51cto.com/13521168/2173922

    展开全文
  • 资料参考链接:...一个做机器人比赛的朋友想在树莓派上用opencv 和 python 做计算机视觉,自动寻找目标和路线。他们买了资料,我就帮安装,然后讲解应用。资料包括预安装了openc...

    资料参考链接:https://www.pyimagesearch.com/2016/11/21/raspbian-opencv-pre-configured-and-pre-installed/

    但他好像没有提供资料公开链接。

    一个做机器人比赛的朋友想在树莓派上用opencv 和 python 做计算机视觉,自动寻找目标和路线。他们买了资料,我就帮安装,然后讲解应用。资料包括预安装了opencv 和python 的系统,当然还有教学资料,教学用到的代码。

    安装

    系统部分有7.6g 大,解压后3个文件,分别是readme.pdf, Raspbian3B_4B.img.gz, RaspbianZeroW.img.gz。推荐安装系统软件为BalenaEtcher, 32G mini SD卡。BalenaEtcher的下载链接为:https://www.balena.io/etcher/

    下载后运行BalenaEtcher 在windows 下安装并运行。提示选择img。 我的树莓派是3B,所以选择Raspbian3B_4B.img.gz。开始以为2个都要呢,其实是选择一个,对应自己的树莓派系统。我认为不应该压缩,至少分别压缩,因为很大,下载很费时间,其实我只要一个就好。

    选择好后,不需要选择sd 卡的地方,我是sd 卡读写器。也不提示要格式化sd卡,所以sd上面有内容要先备份。

    点击flash,就开始了,Flash 看上去很快,可是完成后还有flashing ,这个很慢,时间指示也很不对,最后是Validating,这个也慢。估计第一个是准备数据,第二个是写,第三个是读sd然后校验。

    完成后显示flash 完成,这时系统弹出不识别,是否格式化,千万不要点格式化,否则白做了。因为sd 卡是Raspbian系统,windows不识别。

    测试和设置

    把做好的卡插入树莓派,加电,开始连接hdmi 到电视机或其他屏上,系统就启动了。

    但是我的显示很不清楚,我也第一次用这个树莓派。眼睛很累的,其实应该

    设置系统字体,但应用字体还是小,好像也没设置分辨率的地方。

    要控制应用的字体,点应用的菜单Edit,这里放大应用的字体。

    字体大了,但边缘都被吃掉了,看不到,朋友给我调节边缘的资料,如下:

    1. Take a backup of the file /boot/config.txt 备份
      sudo cp /boot/config.txt /boot/config.txt.backup
      
    2. Open config.txt for editing  编辑
      sudo nano /boot/config.txt
      
    3. Uncomment the #disable_overscan=1 (Remove the #) 取消注释,我的是注释
    4. Comment all other overscan parameters   注释掉,我的是取消下面的注释,并调整大小
      #overscan_left=10
      #overscan_right=10
      #overscan_top=15
      #overscan_bottom=15
      
    5. Save and exit. ( CTRL+X followed by Y to save) 保存
    6. Reboot 重启动sudo reboot

    不断调整这些参数,其实显示器分辨率也可这里设置,这样系统正常状态了。

    资料里介绍第一次运行时,调整容量为整个sd 卡。鼠标如下操作:

    raspi-config => Advanced => Expand Filesystem 

    opencv 环境

    系统装好了,看看opencv

    Raspberry Pi 3B/3B+/4B .img 包含如下环境:

    • py3cv4 : Python 3.7 and OpenCV 4.1.1
    • py3cv3 : Python 3.7 and OpenCV 3.4.7
    • openvino : Python 3.7 and OpenCV 4.1.1-openvino (OpenVINO is an Intel deep learning + hardware-optimized toolkit by Intel)
    • coral : Python 3.7 and OpenCV 4.1.1

     Raspberry Pi Zero W .img 包含如下环境:

    • py3cv4 : Python 3.7 and OpenCV 4.1.1
    • py3cv3 : Python 3.7 and OpenCV 3.4.7

    怎么选择环境呢?

    使用workon 命令:

    workon py3cv4

    也可以用source 

    source ~/start_py3cv4.sh

    验证opencv 环境

    选择环境后就可以验证了。

    python 进入python 环境后

    import cv2

    print(cv2.__version__)

    应该显示opencv 的版本号。

    我开始不是这么验证的,而是运行了资料里的opencv 样例代码。

    资料里介绍设置好wifi 然后下载样例源代码,我不想再下载了,就用u盘。

    其实用u盘也不容易,我找到这个 https://blog.csdn.net/c80486/article/details/8545115 学会用u盘,方法如下:

    安装 usbmount

    sudo apt-get install usbmount

    插入U盘,则系统将自动把U盘挂接到 /media/usb0 目录中 (如果有第二个U盘,则挂接到 /media/usb1 中,如此类推),我的情况不是这样, 但 /media/下有个Pi 的目录,是我u盘内容。

    环境都好了,下面我们可以开始树莓派下python 的 opencv 应用学习了。 

     

     

    展开全文
  • 树莓派4B开发板入门

    千次阅读 2020-10-08 20:51:24
    树莓派4B即使是1G版本,整体性能也可达3B+的3倍以上,在内存够用情况下,内存对运算速度影响相对较小,因此可根据项目用途所需选择适当内存。 1GB 适用于无需图形用户界面,且不需要运行大量的应用程序的用户,如...
  • 树莓派3b+安装TensorFlow1.9

    千次阅读 2019-01-16 14:11:19
    树莓派3b+安装TensorFlow1.9 (个人这俩版本认为最适合...最近在做个机器人大脑,机器视觉这方面就考虑到TensorFlow和opencv搭档。 Raspberry pi上下载安装TensorFlow: 首先,选择TensorFlow1.9的原因如下 开工: ...
  • 要做到机器人的SLAM自适应导航,最基本的要有激光雷达数据或者点云数据,但激光雷达目前价格太高,在淘宝上便宜的也要将近3000块,实在是太贵了,另外可替代的方法是用具有深度摄像机作为传感器发布点云数据,一般用...
  • 最近做毕业设计要做一个基于机器人视觉的目标识别系统,开始用的stm32,后来速度不够,用上了树莓派。这图像处理第一步就是获取视频数据帧,在这个上面折腾了一会,于是贴出来方便后来者移植使用。1.使用笔记本获取...
  • 曾经看过一个视频,树莓派自平衡机器人自动追着小球跑。不经让我脑子蹦出一个有趣的想法,可以做一个识别猫的机器人,让机器人跟着猫跑,有这样一个小东西陪伴喵星人一定很有意思。 不过,首先你要有一只猫,其次,...
  • 它基于名为“机器人学概论”的单元,该单元的重点是机器人手臂的控制和计算机视觉过程的应用。 在项目的一半时间内,重点是开发我们自己的品牌机械臂(Armageddon),该机械臂具有基于位置的逆运动学控制器,该控制...
  • 有步态发生器,单眼视觉测距仪,稀疏的SLAM(进行中)和用于机器人本身的模拟器。 该机器人最终将具有机器学习系统的集成元素。 步态和路径规划将受不同的ML算法影响。 要求 我使用的ubuntu Mate可以直接安装在...
  • 机器人使用纯计算机视觉概念。 与传统的ML模型相比,它: 具有较高的FPS。 具有较低的计算复杂度。 (在Raspberry Pi等边缘设备上运行良好) 无需培训。 它有什么作用? 该机器人最初是为了使无人驾驶飞机(在...
  • 曾经看过一个视频,树莓派自平衡机器人自动追着小球跑。不经让我脑子蹦出一个有趣的想法,可以做一个识别猫的机器人,让机器人跟着猫跑,有这样一个小东西陪伴喵星人一定很有意思。 不过,首先你要有一只猫,其次,...
  • 视觉树莓派 格randint·帕金斯(Grant Perkins),2018年。 VisionRaspberryPi是一个专门为您服务的存储库,一个人想要学习如何编写视觉代码(在Python 3中)并在Raspberry Pi 3上运行。这是我在撰写本文时的首席...
  • CVzero是一个Python 3库,旨在简化Raspberry Pi *机器人的计算机视觉。 除了该库外,还开发了Raspberry Pi的配套应用程序,用于选择对象并显示其颜色签名。 可以将收集的颜色签名保存为文件供库使用。 请耐心等待...
  • 首先,树莓派3作为视觉算法处理核心,识别不同颜色的目标;其次,将颜色信息发送到Arduino单片机;最后,利用Arduino单片机控制大型机械臂跟踪运动目标并进行抓取。将定位装置安装到矿山机器人上进行测试。实验结果...
  • ​ opencv是一个基于BSD许可发行的跨平台计算机视觉库,而在我个人看来,因为其可以用于Linux,也就意味着可以装载在树莓派的嵌入式系统上。十分有利于我开发机器人视觉方面的问题。当然,我并不是计算机专业,对于...
  • 毕业设计备选题

    2018-12-06 13:25:48
    近日,在法国图卢兹的一场智能车比赛中,作者和一位朋友编程设计了一个由 Raspberry Pi、Arduino Uno 和一个树莓派摄像头组成的自动驾驶机器人小车。通过使用 Python、C++ 和神经网络进行图像处理,并以...
  • 本文介绍了具有计算机视觉和机器学习算法的机械臂的设计和开发,该算法可以识别并执行对象上的任务。 该项目包括两个模块,一个是机械臂,另一个是桅杆摄像头。 该项目提出了一种基于微处理器的机器人手臂控制独立...
  • 1.前言 最近在做个机器人比赛,其中一项要求是让机器人实现对是否有人员活动的检测,所以就先拿PC端写一下,准备移植到机器人树莓派。2.工具 工具还是简单的python+视觉模块openCV,代码量也比较少。很简单就...
  • 最近在做个机器人比赛,其中一项要求是让机器人实现对是否有人员活动的检测,所以就先拿PC端写一下,准备移植到机器人树莓派。 2.工具 工具还是简单的python+视觉模块openCV,代码量也比较少。很简单就可以实现 3....
  • 循迹识别小车:(四)OpenMV4部分

    千次阅读 2021-01-22 16:14:39
    2、停止:MV4通过模板匹配和识别圆双重判断是否目标为圆,如果是则给STM32发出信号来停止小车运动并开始树莓派识别。 1、寻线部分: 通过获得摄像头中线条进行几个块区域的数学运算,计算出轨迹偏离角度。 例程: # ...
  • 树莓派计算机视觉编程 OpenCV3 安卓应用编程 OpenCV 即时入门 Python 机器人学习手册 OpenCV2 计算机视觉应用编程秘籍 Python OpenCV 计算机视觉 Python OpenCV 蓝图 贡献指南 本项目需要校对,欢迎大家提交 Pull ...
  • 近半年尝试了各种开发板,包括树莓派,upboard,华为的Atlas等等,最近新入手了英伟达Jetson Xavier NX,后续的机器人导航避障,机器视觉主要基于这块板来做了。记录下开发配置过程 下载官方镜像 官方建议使用64G...
  • traderbot-源码

    2021-03-19 10:31:57
    理想情况下,我还要将其连接到树莓派或在Web服务器上放置一些视觉效果,或者将其作为对朋友的生日礼物之类的东西,并且我想给他一些切实的东西,而不是一个想法。 您应该可以在那里投入50美元,选择一组股票进行...

空空如也

空空如也

1 2
收藏数 30
精华内容 12
关键字:

树莓派视觉机器人