未来iPhone可能会在图像传感器上对视频进行预处理
2020-08-07 15:07 来源: 互联网
苹果正在研究如何减少iphone或其他处理图像传感器的设备的数量,以产生高质量的视频,以节省文件大小和电池电量。目前,iphone、ipad或任何其他设备的摄像头都有一个图像传感器,可以记录所有接收到的光线。然后,视频数据被传递到一个处理器来生成图像。然而,在主设备CPU上的处理将非常密集,设备的电池很快就会耗尽。
一项名为"的美国专利申请",使用事件摄像机生成静止图像,显示苹果公司建议只处理视频图像中自上一帧以来发生变化的部分。传统的摄像机使用时钟图像传感器获取场景中的视觉信息,记录的每一帧数据通常都经过某种方式的后处理。在许多传统的摄像机中,每帧数据都承载了所有的像素信息,这通常会导致冗余,而冗余通常会随着场景中动态内容的增加而增加,并且随着图像传感器利用更高的空间和/或时间分辨率,帧中包含的数据量可能会增加。换句话说,随着iPhone摄像头具有更高的分辨率,人们用它来录制更长的视频,被处理的数据量也会增加。
具有更多数据的帧通常需要额外的硬件和电源,这通常会增加复杂性、成本和/或功耗。当在电池驱动的移动设备上执行后处理时,具有更多数据的后处理帧通常会更快地消耗移动设备的电池。苹果的专利描述了一种用于事件照相机的方法,用于表示单个像素的变化。它并不能捕捉所有的东西,相机输出一个数据响应来检测其视野中的变化。通常,当图像被处理并制作成JPEG或类似格式时,不变的像素会被丢弃,从而使文件大小变小。在苹果的提议中,这些像素甚至无法到达处理器。
苹果表示,没有记录其强度变化的像素不会产生任何数据。因此,与静态对象(例如,不移动的物体)对应的像素不会触发像素事件传感器的输出,而与可变对象(例如移动物体)对应的像素则会触发像素事件传感器的输出。
责任编辑:iiihyt
【慎重声明】凡本站未注明来源为"中国硅谷网"的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。如因作品内容、版权和其他问题需要同本网联系的,请在30日内进行!
热点