映维网:概述谷歌 Pixel 4 深度传感 uDepth 工作原理和底层算法( 二 )


最后 , 从相邻平面假设中选择最佳匹配 。

映维网:概述谷歌 Pixel 4 深度传感 uDepth 工作原理和底层算法
本文插图

绿色组件由GPU运行 , 黄色组件由CPU运行 , 蓝色组件则由PixelNeuralCore运行
当手机出现跌落情况时 , 这可能会导致立体摄像头的出厂校准偏离实际位置 。 为了在实际使用中确保高质量的结果 , uDepth系统支持自校准 。 计分程序评估每个深度图像是否存在误校准的迹象 , 并建立对设备状态的信心 。 如果检测到校准错误 , 则从当前场景重新生成校准参数 。

映维网:概述谷歌 Pixel 4 深度传感 uDepth 工作原理和底层算法
本文插图

左边是未校准的立体深度;右边是经过自校准后的立体深度
更多的信息请参阅SlantedO(1)Stereo 。
3.用于计算摄影的深度
uDepth传感器的原始数据需要是精确和可度量 , 这是人脸解锁的基本要求 。 诸如人像模式和三维照片等计算摄影应用有着非常不同的需求 。 在所述用例中 , 实现视频帧速率并不重要 , 但深度应该是平滑的 , 边缘对齐的 , 并且在彩色摄像头的整个视场中都是完整的 。

映维网:概述谷歌 Pixel 4 深度传感 uDepth 工作原理和底层算法
本文插图

从左到右:原始深度感测结果 , 预测深度 , 3D照片
为了实现这一目标 , 团队训练了一个端到端的深度学习架构 。 它增强了原始uDepth数据 , 并推断出一个完整、密集的3D深度映射 。 谷歌采用了RGB图像、人像分割和原始深度的组合 。

映维网:概述谷歌 Pixel 4 深度传感 uDepth 工作原理和底层算法
本文插图

用于计算摄影深度的架构
为了获得GroundTruth , 团队利用了一个体三维捕捉系统 。 这是一个配备有331个自定义彩色LED灯、一组高分辨率色摄像头和一组自定义高分辨率深度传感器的测地线球体 , 能够生成接近照片真实感的人像模型 。 谷歌在设置中添加了Pixel4智能手机 , 并将它们与其他硬件(灯光和摄像头)同步 。 生成的训练数据包括Pixel4视点真实图像和合成渲染的组合 。

【映维网:概述谷歌 Pixel 4 深度传感 uDepth 工作原理和底层算法】映维网:概述谷歌 Pixel 4 深度传感 uDepth 工作原理和底层算法
本文插图

数据获取综述
4.将一切整合起来
当所有一切就位后 , uDepth将能够以30Hz产生深度数据流 , 并生成平滑的后处理深度映射 。 系统生成的平滑、密集、每像素深度支持启用SocialMediaDepth功能的所有Pixel4自拍照片 , 并且可用于社交媒体的散焦和3D照片等后期捕获效果 。
谷歌最后提供了一个演示应用 , 这样你就可以利用uDepth提供的实时点云可视化工具进行体验 。 请点击这里下载(注 , 这个应用仅用于演示和研究目的 , 不用于商业用途;谷歌不会提供任何支持或更新) 。 这个演示应用会从你的Pixel4可视化三维点云 。 由于深度映射属于时间同步 , 并且与RGB图像位于同一坐标系中 , 所以可以显示3D场景的纹理映射 , 如下面示例:

映维网:概述谷歌 Pixel 4 深度传感 uDepth 工作原理和底层算法
本文插图

利用uDepth获取的单帧RGB点云示例
概述谷歌Pixel4深度传感uDepth工作原理和底层算法最先出现在映维网 。


推荐阅读