『LiveVideoStack』?5G+AI时代的高效视频处理( 三 )


『LiveVideoStack』?5G+AI时代的高效视频处理
本文插图
这里列举了有关机器视觉的例子 , 比如智能工厂、视频监控、自动驾驶车辆、娱乐方面、零售分析等等 。 机器视觉不同于人眼视觉只需要高保真就可以 , 它在很多不同的应用场景需要不同的要求 , 这些都是对机器视觉提出来的挑战 。 2.3 面向机器视觉的视频编码方式
『LiveVideoStack』?5G+AI时代的高效视频处理
本文插图
面向机器的视频编码主要有两种方式 , 图中的上面是一种传统方法 , 先输入视频进行编码 , 在接收端进行解码再进行通用特征提取等 , 最后将结果输出 。
对于面向机器的视频编码不需要传输原始的图像 , 而是在输入视频里将针对神经网络的权重提取出来 , 然后将这些特殊的特征进行压缩后 , 通过传送器传输到接收端对其进行解压 , 最后用神经网络进行检测 。 神经网络的输入不再是单纯的图片 , 而是前面已经处理好的特殊的特征 。 3. 新时代的视频压缩3.1 视频压缩的发展方向
『LiveVideoStack』?5G+AI时代的高效视频处理
本文插图
针对于现在的5G+AI时代 , 视频压缩未来的方向主要包括图中四部分:5G、系统方法、AI/DL/NN上的硬件和半导体 。 3.2 5G应用场景
『LiveVideoStack』?5G+AI时代的高效视频处理
本文插图
目前5G主要有三个应用场景:eMBB、URLLC、mMTC 。
eMBB是针对人的视觉的 , 5G进一步提升带宽和降低延迟 。
URLLC是一个低延迟的传输协议 , 主要用于自动驾驶的车联网以及远程医疗 。
mMTC主要针对物联网IoT , 目前的人联网会随着5G的发展成为物联网 , 问题是用传统的网络带宽不够 , 而5G会极大地扩充整个网络带宽的频段以及同时接入的设备数量 。 3.2.1 5G技术
『LiveVideoStack』?5G+AI时代的高效视频处理
本文插图
这张图是5G和3G、4G的展示图 , 主要介绍几个方面 , 一是Mobility , 即在某种速度下可以联网 , 4G可以做到在25km每小时的高铁上连网也没有问题 , 5G更推进了一步 , 可以做到在500km每小时的情况下正常连网 。 二是Latency , 延迟在4G情况下是10毫秒 , 这是相当大的 , 在5G情况下延迟提高到1毫秒 , 相当于达到十倍的降低 。 三是Peak Data Rate , 4G情况下是1Gbps , 5G情况下是4G的20倍 , 可以达到20Gbps 。 四是Number of Decvices , 5G情况下可以达到10^6/km2 , 即在一平方公里可以连接100万个设备 。
『LiveVideoStack』?5G+AI时代的高效视频处理
本文插图
利用5G技术在路上进行自动驾驶通讯
『LiveVideoStack』?5G+AI时代的高效视频处理
本文插图
这张图表示 , 5G改变了通信的信道 , 在视频编解码阶段 , 以前的通信里面编解码归编解码管 , 通讯归通讯管 , 两个基本上是分开的 , 视频压缩端不涉及数据的即时传输 , 这就会造成视频的卡顿 。
『LiveVideoStack』?5G+AI时代的高效视频处理
本文插图
解决方法就是将视频编解码和传输协议做成紧密耦合的系统 。 编码时要做到:一是可伸缩视频编码 , 二是功能性视频编解码 。 3.3 视频编解码的改革
『LiveVideoStack』?5G+AI时代的高效视频处理
本文插图
编解码器为传输提供了三种选择:一是稍高的版本 , 二是较低的版本 , 三是直接丢弃 。 这三种形式需要根据当前的网络形态或者当前网络阻塞的判断 , 决定采用哪一种 , 即视频编解码将最后的决定权给了传输协议 。


推荐阅读