成本已然成为激光雷达普及最大的拦路虎 。2016 年 8 月福特和百度一起投资了激光雷达厂商 Velodyne LiDAR 1.5 亿美元 , 目的就是帮助 Velodyne 降低激光传感器的成本 。Velodyne 希望将激光雷达的价格降到 300 到 500 美元之间 , 以满足大众汽车市场 。视觉 SLAM视觉 SLAM 是 21 世纪 SLAM 研究热点之一 。
CPU、GPU 处理速度的增长和硬件的提高 , 让许多以前被认为无法实时化的视觉算法 , 得以在 10 Hz 以上的速度运行 。按照摄像头的数量和种类分 , 视觉 SLAM 分 3 个子方向:单目、双目(或多目)、RGBD 。此外 , 还有鱼眼、全景等特殊摄像头 , 但是都属于少数 。单目相机 SLAM 只需要一个普通的 2D 摄像头 , 成本优势大 。
但普通 2D 摄像头没法获取深度信息 , 它捕获的仅仅是一张 2D 图像 。深度信息缺失有什么影响?如果没有距离信息 , 就不知道一个东西的远近 , 也不知道它的大小 。它可能是一个近处但很小的东西 , 也可能是一个远处但很大的东西 。仅仅凭借一张图像时 , 你没法知道物体的实际的大小 。另一方面 , 单目相机也无法依靠一张图像获得图像中物体离自己的相对距离 。
但这两个问题都有对应的解决办法 。比如 , 通过借助 GPU 和 IMU(Inertial Measurement Unit , 惯性测量器件)确定物体的大小 , 依靠运动中的三角测量 , 来求解相机运动并估计像素的空间位置 。双目 SLAM 消除了单目的很多麻烦 。双目视觉和人眼类似 , 通过左右眼图像的差异来计算距离——也就是所谓的立体视觉(Stereo) 。
但双目 SLAM 的计算量非常大 , 通常需要用到可编程门阵列 FPGA 。而且其其深度量程也受双目的基线与分辨率限制 。RGBD SLAM 的传感器是深度摄像头 , 能直接记录深度信息 。深度摄像头通过把光投射到物体表面 , 再测量反射的信息来计算距离 , 具体原理有两种:结构光或 Time-of-Flight 。它比传统相机能够提供更丰富的信息 , 也不必像单目或双目那样费时费力地计算深度 。
Kinect 就是一种比较常见的深度摄像头 。不过 , 现在多数 RGBD 相机还存在测量范围窄、噪声大、视野小等诸多问题 。一个机器人也好 , 无人汽车也好 , 其最核心、最根本的问题有四个:定位技术、 跟踪技术、 路径规划技术(Path Planning), 还有就是控制技术(Controlling) 。
无人驾驶汽车中的SLAM指的是什么?
【SLAM到底是什么,slam是什么意思】SLAM 的全称是simultaneous localization and mapping,也称为CML (Concurrent Mapping and Localization)技术 。它是一种定位与地图构建 , 或并发建图与定位的技术 。具体可以理解为将一个机器人放入未知环境中的未知位置 , 是否有办法让机器人一边逐步描绘出此环境完全的地图 。
推荐阅读
- 排行榜123网,导弹
- 红色法拉利跑车,速度与激情7中的红色法拉利跑车是什么型号
- 牡丹交通卡,请问牡丹交通卡是什么卡啊
- 手机检测不到SIM卡是什么情况
- 标致307车身抖动是怎么回事 标致307车会抖是什么问题
- 可变阻尼悬挂是什么 什么是电子可变阻尼悬架
- 红莲之瞳是什么,知道刺客信条的肯定是老玩家
- 奔狼纹章改成什么了,的择偶标准是什么
- 单人觉醒副本是什么,「觉醒」玩法解析
- 柯达影像怎么样,是什么导致柯达走向破产