搜一下:Chromebook Pixel 可以做什么?它适合工作吗
6,苹果新专利启示:激光雷达正走入3D传感系统和MR耳机_编者按:本文是36氪“边界计划”的转载内容,来自微信公众号“ MEMS”(ID: MEMSensor),作者:麦姆斯咨询王懿;36氪经授权转载 。
据麦姆斯咨询报道,Patently Apple于2018年11月27日发布了两份涉及谷歌和LG发明的专利报告 。
谷歌的专利是一款深度摄像头,该款深度摄像头与苹果公司(Apple)用于手势识别的TrueDepth摄像头类似,将实现利用手势指令控制未来Pixel手机、平板电脑、Chromebook笔记本及二合一平板Pixel Slate的功能 。该款深度摄像头将使用垂直腔面发射激光器(VCSEL) 。
LG的专利则是一款可提供卓越拍照体验的十六镜头摄像头(16 lens camera),每个镜头覆盖着不同的角度 。该相机还可让用户将拍摄的更为满意的身体照片与另一张照片的头部拼接为新照片,实现了Photoshop的功能 。
报告在最后指出,随着智能手机摄像头大战的升级,技术领先的智能手机原始设备制造商(OEM)预计将全力以赴推进各自的摄像头系统,为用户提供许多有趣的选择 。这种疯狂的超级摄像头创意将在各类品牌中遍地开花 。
2018年11月29日,美国专利及商标局(US Patent & Trademark Office,USPTO)发布了一份涉及苹果公司改进深度摄像头的专利申请,更具体地说,专利内容涉及光电器件,特别是激光探测与测距(LiDAR)传感器 。
今年早些时候,一家名为TriLumina的公司开发出采用VCSEL的经济、可靠的激光雷达(LiDAR)系统,可用于混合现实(MR)耳机、3D传感应用、手势识别系统、游戏、机器人和汽车,具体应用如下图所示 。
正如TriLumina所述,LiDAR与VCSEL技术相结合正是近期美国专利及商标局发布的两项苹果新专利的主题 。
【chromebook pixel,chromebook pixel 2013能用什么充电器】苹果公司指出,现有和新兴消费应用对实时3D成像的需求日益增长 。这类成像器件(即通常所说的LiDAR),是利用光束照射目标场景并分析反射的光信号,来实现对目标场景中每个点的距离的远程测量(通常是强度),即所谓的目标场景深度 。确定目标场景中每个点距离的常用技术为:对目标场景发出光束,然后测量光束往返的时间,即飞行时间(ToF),测量光束从光源到达目标场景再返回探测器附近的时间 。
单光子雪崩二极管(SPAD)阵列为基于ToF原理的LiDAR提供了探测器 。SPAD,也被称为盖革模式雪崩光电二极管(GAPD),是一种能够捕获单个光子的探测器,具有非常高的到达时间(TOA)分辨率(约几十皮秒) 。而SPAD可利用专用半导体工艺或标准CMOS技术来制造 。
在单芯片上制造的SPAD传感器阵列,目前已在3D成像摄像头中得到实验性应用 。
苹果公司的发明主要专注于改进LiDAR传感器及其使用方法 。
苹果公司解释了本发明的具体案例,目标场景被一束或多束光所照亮和扫描 。在本发明使用多光束的案例中,这些光束是利用衍射光学元件(DOE)、棱镜、分束器或该领域中已知的其他光学元件来分裂光束,从而形成多光束 。其他案例的多光束通常是利用多个分立激光光源产生 。本发明案例中,多光束由如VCSEL或VCSEL阵列等单片激光阵列所产生 。
下面的苹果专利图1(FIG.1)给出了本发明案例中LiDAR系统(18)的示意图 。由一个或多个脉冲激光器组成的激光光源(20)发出的光束通过双轴光束转向装置(24)指向目标场景(22),在目标场景上形成并扫描照明点(26) 。(其中“光束”一词在此指包括可见光、红外线和紫外线等波长范围内的任何种类的光辐射 。)光束转向装置可以是扫描镜或任何其他该领域已知的、适当类型的光偏转器/扫描仪 。照明点(26)则是由采集光学元件(27)成像到由如SPAD等单光子、时间敏感传感元件组成的二维探测器阵列(28)上 。
推荐阅读
- 最新款手机2013,2013年的智能手机推荐
- pixel 4100是什么版本,或搭4100万像素传感器
- pixel版本辨识,谷歌Pixel
- 胡桃里几点开始唱歌
- 2013上海国际车展,2013年上海车展在什么时候
- ultrapixel超像素 ultrapixel
- 最新笔记本显卡排行,2013年 笔记本显卡天梯图
- 黑莓privroot,Pixel太贵
- 新桑塔纳图片,新桑塔纳2013款图片有16排量
- 2013年合肥市房价,合肥房价会多少钱一平