#新浪科技综合#未来iPhone可能会在图像传感器上对视频进行预处理新浪科技综合2020-08-07 08:50:440阅

本文来自cnBeta
苹果正在研究如何减少iPhone或其他设备对图像传感器本身的处理量 , 以便制作高质量的视频 , 目的是节省文件大小和电池电量 。 目前 , iPhone、iPad或任何其他设备的摄像头都有一个图像传感器 , 它能记录所有接收到的光线 。 然后 , 这些视频数据被传递给一个处理器 , 由它来创建图像 。 但这种在主设备CPU上的处理会很密集 , 并使设备的电池很快耗尽 。
苹果一项名为“用事件摄像机生成静态图像”的美国专利申请显示 , 苹果提出只处理视频图像中自上一帧以来发生变化的部分 。 传统相机使用时钟图像传感器来获取场景中的视觉信息 , 记录的每一帧数据通常会以某种方式进行后处理 , 在许多传统相机中 , 每一帧数据都携带了所有像素的信息 , 通常会导致冗余 , 并且随着场景中动态内容数量增加 , 冗余度通常会增加 , 随着图像传感器利用更高的空间和/或时间分辨率 , 一帧中包含的数据量很可能会增加 。 换句话说 , 随着iPhone相机分辨率越来越高 , 以及人们使用它们记录更长的视频 , 正在处理的数据量也会上升 。
具有更多数据的帧通常需要额外的硬件与电量 , 这往往会增加复杂性 , 成本和/或功耗 。 当在电池供电的移动设备上进行后处理时 , 具有更多数据的后处理帧通常会更快地消耗移动设备的电池 。 苹果这项专利描述了 一个事件相机指示单个像素变化 的方法 , 它不是捕捉所有的东西 , 相机输出的数据响应检测其视场的变化 。 通常情况下 , 当图像被处理并制作成JPEG或类似格式时 , 没有变化的像素会被丢弃 , 这样可以使文件大小变小 。 在苹果的提案中 , 这些像素甚至不会到达处理器 。
【#新浪科技综合#未来iPhone可能会在图像传感器上对视频进行预处理新浪科技综合2020-08-07 08:50:440阅】苹果表示 , 没有记录其强度变化的像素不会产生任何数据 。 因此 , 对应于静态物体(例如 , 不移动的物体)的像素不会触发像素事件传感器的输出 , 而对应于可变物体(例如 , 移动的物体)的像素会触发像素事件传感器的输出 。
#新浪科技综合#未来iPhone可能会在图像传感器上对视频进行预处理新浪科技综合2020-08-07 08:50:440阅
文章图片
图1/1


    推荐阅读