当前位置:大学毕业论文> 论文目录>材料浏览

关于机器人相关专升本论文范文 跟深度:移动机器人中的视觉算法方面专升本论文范文

主题:机器人论文写作 时间:2024-01-23

深度:移动机器人中的视觉算法,本文是关于机器人方面本科论文范文跟移动机器人和视觉算法和深度解析有关论文如何怎么撰写.

机器人论文参考文献:

机器人论文参考文献 视觉传达设计毕业论文题目视觉传达毕业论文题目视觉传达毕业论文视觉传达设计毕业论文

移动机器人需要具备和人的眼睛、大脑、腿类似的功能来实现定位导航、路径规划以及避障,这些过程中需要哪些算法的支持?本文就来和大家聊一聊几种不同但又必不可少的视觉算法组成.

文/Segway Robot

首先,我向大家简单介绍一下我担任架构师和算法负责人的Segway Robot( 赛格威机器人) 项目,Segway Robot是一个轮式的可移动机器人,底盘是一台具有400 多项专利技术的平衡车,此外,它拥有Intel Atom 处理器、RealSense 深度摄像头以及多种传感器.Segway Robot 可以自主导航,并通过SDK 和USB 2.0 扩展槽提供软件、硬件的双重可扩展性.Segway Robot 项目在2016 年美国CES上发布,被《财富》等媒体评为“最佳机器人”之一.

谈起移动机器人,很多人想到的需求可能是这样的:“嘿,你能不能去那边帮我拿一杯热拿铁过来.”这个听上去对普通人很简单的任务,在机器人的世界里,却充满了各种挑战.为了完成这个任务,机器人首先需要载入周围环境的地图,精确定位自己在地图中的位置,然后根据地图进行路径规划控制自己完成移动.而在移动的过程中,机器人还需要根据现场环境的三维深度信息,实时躲避障碍物直至到达最终目标点.在这一连串机器人的思考过程中,可以分解为如下几部分的视觉算法:

1. 深度信息提取

2. 视觉导航

3. 视觉避障

智能手机上的摄像头可以作为机器人的眼睛吗?

所有视觉算法的基础说到底来自于机器人脑袋上的视觉传感器.就好比人的眼睛和夜间视力非常好的动物相比,表现出来的感知能力是完全不同的.同样的,一个眼睛的动物对世界的感知能力也要差于两个眼睛的动物.每个人手中的智能手机摄像头其实就可以作为机器人的眼睛,当下非常流行的Pokeman Go 游戏就使用了计算机视觉技术来达成AR 的效果.一个智能手机中摄像头模组,其内部包含如下几个重要的组件:镜头,IR filter,CMOS sensor.其中镜头一般由数片镜片组成,经过复杂的光学设计,现在可以用廉价的树脂材料,做出成像质量非常好的手机摄像头.

CMOS sensor,上面会覆盖着叫作Bayer 三色滤光阵列的滤.每个不同颜色的滤光片,可以通过特定的光长,对应在CMOS 感光器件上就可以在不同位置分别获得不同颜色的光强了.如果CMOS 传感器的分辨率是4000x3000,为了得到同样分辨率的RGB 彩像,就需要用一种叫作demosaicing 的计算摄像算法,从2 绿1 蓝1 红的2x2 网格中解算出2x2 的RGB 信息.

一般的CMOS 感光特性除了选择红绿蓝三色之外,对于红外光是透明的.因此在光路中加上IR 滤光片,是为了去除太阳光线中红外光对CMOS 的干扰.加上滤光片后,通常图像的对比度会得到显著的提升.

计算机视觉中常用的视觉传感器是什么样的?

除了RGB 相机,计算机视觉中常用的还有其他种类的特殊相机.例如有一种相机的滤光片是只允许通过红外光波段的.因为人眼通常是看不见红外光的,所以可以在相机附近加上主动红外光源,用于测距等应用.

另外,大部分我们用到的camera 都是以rolling shutter的形式实现电子的,为了减少电子器件的成本,通常是一行一行分别进行,这样势必造成物体快速移动时,相机采集到的图像会发生形变.为了避免这种形变对基于立体几何进行计算的视觉算法的影响(例如VSLAM),选用global shutter 的相机就显得特别重要了.

深度相机是另一大类视觉算法中需要的传感器,可以分成如下几类:

1.TOF 传感器(例如Kinect 2 代),类似昆虫复眼.成本高,室外可以使用.

2. 结构光传感器(例如Kinect 1 代),三角定位原理,成本中,室外不能用.

3. 双目视觉(例如Intel Realsense R200),主动照明或被动照明,IR 或可见光皆可.成本低,室外可以使用.

深度相机如何识别物体的深度信息?

简而言之,其原理就是使用两个平行的相机,对空间中的每个点三角定位.通过匹配左右两个相机中成像点的位置,来计算对应三维点在空间中的距离.学术界对双目匹配恢复深度图研究有很长的历史,在NASA 火星车上就开始采用这个技术.但是其真正在消费电子品市场得到广泛应用还是从微软的Kinect 体感传感器开始.

Kinect 传感器背后使用了以色列Primesense 公司授权的结构光技术(如今已被Apple 收购).其原理是避开双目匹配中复杂的算法设计,转而将一个摄像头更换成向外主动投射复杂光斑的红外投影仪,而另一个平行位置的相机也变成了红外相机,可以清楚地看到投影仪投射的所有光斑.因为人眼看不到红外光斑,而且纹理非常复杂,这就非常有利于双目匹配算法,可以用非常简洁的算法,识别出深度信息.尽管Kinect 的内在原理并没有给出解释,但在近年来一篇Kinect Unleashed 的文章中,作者向公众hack 了这个系统的工作原理:首先,红外图像在基线方向上采样8 倍,这样可以保证在做双目匹配后实现3bit 的亚像素精度.然后,对图像做sobel 滤波,使得图像的匹配精度提高.而后,图像与预存的投影光斑模板图像进行SADblock matching.该算法的计算复杂度小,适合硬化和并行.最后,经过简单的图像后处理,下采样到原始分辨率,得到最终的深度图.我们可以看到,随着2009 年Kinect 设备在消费机市场的爆发(发售头10 天100 万台),逐渐开始催生了类似技术变种在移动端设备的研发热潮.从2013年至今,随着计算能力的提升和算法的进步,硬件成本更低的主动/ 被动双目深度相机开始在移动手机上涌现.过去认为很难实时运行的双目匹配算法,即使在没有主动结构光辅助的情况下,也表现出非常优异的3D 成像质量.Segway robot采用了主动/被动可切换的双目深度视觉系统.三个传感器分别为,左红外相机,红外pattern 投影,右红外相机.在室内工作时,因为红外光源不足,红外投影打开,辅助双目匹配算法.在室外工作时,红外光源充足,红外投影关闭,双目匹配算法可以直接运行.综合看,此系统在室内外都表现出优异的深度传感能力.

机器人导航是如何实现的?

机器人导航本身是一个比较复杂的系统.其中涉及到的技术包括:视觉里程计VO;

建图,利用VO 和深度图;重定位,从已知地图中识别当前的位置;闭环检测,消除VO 的闭环误差;全局导航;视觉避障;Scene tagging,识别房间中物体加上tag.机器人开机,视觉里程计就会开始工作,记录从开机位置起的6DOF 定位信息.在机器人运动过程中,mapping 算法开始构建机器人看到的世界,将空间中丰富的特征点信息和二维的地图信息记录到机器人map 中.

当机器人运动过程中因为遮挡、断电等原因丢失了自身的坐标,重定位算法就需要从已知地图中定位到机器人当前的位置.另外,当机器人运动中回到了地图中曾经出现过的位置,往往视觉里程计的偏差会导致轨迹并没有完全闭合,这就需要闭环算法检测和纠正这个错误.

有了全局地图之后,机器人就可以给定一些目标点指令,做全局的自主导航了.在现实中,因为环境是不停变化的,全局地图并不能完全反映导航时的障碍物状况,因此需要凌驾于全局导航之上的视觉避障算法进行实时的运动调整.最后,一个自动的导航系统还需要机器人自动识别和理解空间中的不同物体的信息、位置、高度和大小.这些tag信息叠加在地图上,机器人就可以从语义上理解自己所处的环境,而用户也可以从更高层次下达一些指令.

视觉VSLAM 在机器人上的实现有哪些难点?

视觉VSLAM 是一个集合了视觉里程计、建图和重定位的算法系统.近年来发展很快.基于特征的视觉SLAM 算法从经典的PTAM 算法开端,目前以ORB-SLAM 为代表的算法已经可以在PC 上达到实时运行.

从名字可见,其使用ORB 作为图像特征提取工具,并且在后续的建图及重定位中均使用了同一份特征点信息.相对于传统的SIFT 和SURF 特征提取算法,其效率高出很多.

ORB-SLAM 包含三个并行的线程,即跟踪、建图和闭环.其中跟踪线程运行在前端,保证实时运行,建图和闭环线程运行在后端,速度不需要实时,但是与跟踪线程共享同一份地图数据,可以在线修正使得地图数据精度和跟踪精度更高.ORB-SLAM 地图的主要数据结构是点云和关键帧.两者之间通过图像上2D 特征点与空间中的点云建立映射关系,同时还维护了关键帧之间的covisibility graph 关系.通过这些数据关联,用优化方法来维护整个地图.

ORB-SLAM 在机器人上应用仍然存在如下难点:

1. 计算量过大,在4 核处理器上通常会占去60% 左右的CPU 资源.

2. 在机器人运动过快时会出现跟丢不可复原的情况.

3. 单目SLAM 存在尺度不确定的问题.在机器人快速旋转时,此问题尤其明显,很快会出现闭环误差过大无法纠正的情况.针对尺度问题,有两种方法解决:增加一个摄像头形成双目SLAM 系统,或者增加一个IMU 形成松耦合/ 紧耦合的视觉惯导定位系统.这里简单介绍一下松耦合的视觉惯导定位系统.一般把VSLAM 当成一个黑盒子,将其的输出作为观测量放到一个基于IMU 的EKF 系统中,EKF 最终fuse 的输出即是系统的输出.

考虑到camera 数据和IMU 数据通常是不同步的,因此通过硬件时间戳,需要判断图像数据对应的时间戳与IMU 时间戳的关系.在EKF propagate 步骤,更高帧率的IMU 数据不停更新EKF 的状态.在camera 数据到来时,触发EKFupdate 步骤,根据EKF 建模方程来更新状态变量、协方差矩阵,并且重新更新所有晚于camera 数据的IMU 数据对应的状态变量.

Segway Robot 也采用了视觉惯导定位系统,有如下优势:

1. 在大尺度下可以保证非常小的闭环误差;

2. 实时运行,需求CPU 资源小;

3. 允许快速旋转等情形,不会跟丢.

视觉避障的原理是什么样的?

导航解决的问题是引导机器人接近目标.当机器人没有地图的时候,接近目标的方法称为视觉避障技术.避障算法解决的问题是根据视觉传感器的数据,对静态障碍物、动态障碍物实现躲避,但仍维持向目标方向运动,实时自主导航.避障算法有很多,然而这些方法都有严格的假设,假设障碍物为圆形或假设机器人为圆形,假设机器人可以任意方向运动,或假设它只能走圆弧路径.然而实际应用上,机器人很难达到条件.

比如VFF 算法, 该算法假设机器人为点,而且可以任意方向运动.VFH+ 假设机器人为圆形,通过圆形膨胀障碍物,在考虑运动学问题时仅仅假设机器人以圆弧路径运动.DWA也假设机器人为圆形,在考虑运动学问题时只模拟了前向圆弧运动时的情况.

相对而言,我们不限制机器人的形状,考虑运动学问题时,模拟多种运动模型,而不限于圆弧运动,因为这样可以为机器人找到更佳避开障碍物的行为.

Segway Robot 和目前常用的避障算法之间存在的差异在于,它将运动学模型抽象化到周围环境地图中,然后就可以使用任何常用的避障算法,这样就解耦了运动学模型与算法的捆绑,而且任何要求严格的避障算法都能加入进来.

Segway Robot 的避障系统,综合了深度传感器,超声波,IMU 等sensor.这样的避障系统可以在复杂的环境中,自如躲避障碍物.

此文结论,此文是适合不知如何写移动机器人和视觉算法和深度解析方面的机器人专业大学硕士和本科毕业论文以及关于机器人论文开题报告范文和相关职称论文写作参考文献资料.

微联播:微人物,微视觉,微感动
微人物1.天津的五大道由五条街道组成,是中国保留最完整的洋楼建筑群 金彭育生于此,长于此,学识渊博的他,一直钟情于五大道的历史文化 “很多风貌建筑是你看得见的,但还有很多你看不见的故事 &.

数据新闻:中英环境报道视觉框架和视觉修辞方式的异同基于数读数字说和《卫报》的比较
一、研究问题作为全球第一本专门探讨数据新闻的著作,数据新闻手册这样对数据新闻下定义用数据报道新闻 自2013年中文版的数据新闻手册在网上面世以来,国内业界和学界纷纷展开对其的关注和研究,学者们从不同的.

梦想不会老去,做中国风变形机器人
文清清“疯魔”变形金刚,立志将动漫机器人雕塑带入艺术的殿堂孙世前是一位80 后,刚到而立之年,老家在大连 上世纪80年代,动画片变形金刚正风靡全国 一次,他看见一个小伙伴手里拿.

论文大全