加入收藏 | 设为首页 | 会员中心 | 我要投稿 宁德站长网 (https://www.0593zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 创业 > 经验 > 正文

谷歌Pixel 4系列支持实时3D捕获,技术方案逊于苹果

发布时间:2020-04-14 09:34:04 所属栏目:经验 来源:中国软件网
导读:2020年4月13日消息,近日,谷歌演示一款应用程序,可以在内置于Pixel 4和Pixel 4 XL手机中的立体深度传感器中的uDepth,实时地显示可视化点云。据悉,uDepth利用机器学习来识别用户,防止欺骗攻击,支持包括处理照片色泽度,基于场景的分割技术,背景模糊,
2020年4月13日消息,近日,谷歌演示一款应用程序,可以在内置于Pixel 4和Pixel 4 XL手机中的立体深度传感器中的uDepth,实时地显示可视化点云。据悉,uDepth利用机器学习来识别用户,防止欺骗攻击,支持包括处理照片色泽度,基于场景的分割技术,背景模糊,人像特效,以及3D照片等多种功能。

 

谷歌方面表示,谷歌游戏商店中,或不提供相关应用下载支持,用户界面也将尽可能简洁。用户选择左下角的模式按钮,可以切换热度和颜色的可视化不同模式,点击、拖动可视化可更改透视图。

 

换句话说,用户只能在Pixel 4和Pixel 4 XL手机上使用该功能,此外,该平台技术可在其他领域发展提供支持,如机器人技术。在这些领域中,精确的深度传感器是避免障碍物的关键核心硬件,同时,其可导致计算机视觉技术的进步,这也是机器人过程自动化以及其他众多应用的核心技术。

 谷歌Pixel 4系列支持实时3D捕获,技术方案逊于苹果

uDepth软件负责人Michael Schoenberg以及谷歌研究硬件系统负责人Adarsh Kowdle说,“对开发人员和用户来说,能够确定场景的3D信息,称为深度感测,是一个很有价值的工具。基于RGB的经典立体深度感测技术在计算上很昂贵,特别是,纹理较低的区域中受影响,在极低的光线条件下则完全失败。鉴于,Pixel 4上的面部解锁功能必须在黑暗中高速运行,因此需要采用另一种方法。”

 

据悉,近期,uDepth的API接口开放,通过谷歌Pixel 4系列手机照相应用中的社交媒体深度设置渠道使用。uDepth有两个红外IR相机、一个红外模式投影仪、Pixel 4系列专用神经芯片PixelNeuralCore。如生成具有深度的帧,它将先由一个摄像头捕获图像中周围的区域,再从第二个摄像头中查找图像相似区域,将红外相机投射到两个摄像头均检测到的区域上,以使得低纹理的区域更易识别。

 

此外,为匹配区域,uDepth通过比较不重叠的图像来编译深度,机器学习利用亮度以及邻域信息再每帧不少于1.5毫秒的时间内调整不正确的匹配信息。考虑到,硬件摔落、出厂校准导致的差异,uDepth会评估深度图像查找错误进而校准,并在出现问题时从场景上生成参数。

 

中国软件网认为,无论是谷歌,还是苹果近年均在摄像头上大做文章。前不久,苹果将华为、OPPO、vivo等手机厂商广泛应用的ToF(飞行时间)技术升级为激光雷达技术。通过雷达发射器发射光波,遇到物体反射,记录反射到达接受器的时间,呈现场景、物体的不同深度,进而绘制3D图像。

 

可见,苹果致力于解决物体3D图像的精度问题,事实上,激光雷达技术一直应用于自动驾驶领域,苹果升级ToF技术是一项重要创新。对比谷歌此次的uDepth,两者基础原理相同,均为通过AI、AR等技术解决立体图像问题。但从谷歌方面的描述来看,依然采用的是红外技术,与苹果技术解决方案相比,稍显逊色。




(编辑:宁德站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读