• 综合性科技类中文核心期刊
    • 中国科技论文统计源期刊
    • 中国科学引文数据库来源期刊
    • 中国学术期刊文摘数据库(核心版)来源期刊
    • 中国学术期刊综合评价数据库来源期刊

基于ResNet-TSM和BiGRU网络的移动视频感知质量评价模型

杜丽娜, 杨硕, 卓力, 张菁, 李嘉锋

杜丽娜, 杨硕, 卓力, 张菁, 李嘉锋. 基于ResNet-TSM和BiGRU网络的移动视频感知质量评价模型[J]. 北京工业大学学报, 2024, 50(1): 18-26. DOI: 10.11936/bjutxb2022020009
引用本文: 杜丽娜, 杨硕, 卓力, 张菁, 李嘉锋. 基于ResNet-TSM和BiGRU网络的移动视频感知质量评价模型[J]. 北京工业大学学报, 2024, 50(1): 18-26. DOI: 10.11936/bjutxb2022020009
DU Lina, YANG Shuo, ZHUO Li, ZHANG Jing, LI Jiafeng. Mobile Video Perceptual Quality Assessment Model With ResNet-TSM and BiGRU Network[J]. Journal of Beijing University of Technology, 2024, 50(1): 18-26. DOI: 10.11936/bjutxb2022020009
Citation: DU Lina, YANG Shuo, ZHUO Li, ZHANG Jing, LI Jiafeng. Mobile Video Perceptual Quality Assessment Model With ResNet-TSM and BiGRU Network[J]. Journal of Beijing University of Technology, 2024, 50(1): 18-26. DOI: 10.11936/bjutxb2022020009

基于ResNet-TSM和BiGRU网络的移动视频感知质量评价模型

基金项目: 

国家自然科学基金资助项目 61531006

北京市自然科学基金资助项目 KZ201910005007

详细信息
    作者简介:

    杜丽娜(1995—),女,博士研究生,主要从事视频质量评价、码率自适应算法方面的研究,E-mail: 1340398672@qq.com

    通讯作者:

    卓力(1971—),女,教授, 博士生导师,主要从事图像/视频的编码与传输、多媒体大数据处理方面的研究,E-mail: zhuoli@bjut.edu.cn

  • 中图分类号: TP391

Mobile Video Perceptual Quality Assessment Model With ResNet-TSM and BiGRU Network

  • 摘要:

    考虑到卡顿、质量切换、内容特征等因素对用户体验质量的影响都会直接体现在客户端的失真视频里, 提出了一种客户端的移动视频感知质量评价模型。该模型无须对每种影响因素均进行表征和度量, 而是基于深度特征提取+回归的思路, 直接建立失真视频与平均意见分数之间的映射模型。首先, 构建了ResNet-TSM网络结构, 提取失真视频片段的深度时空特征; 为了避免维度灾难, 采用LargeVis算法对提取的深度特征进行降维, 同时提升特征的表达与区分能力。然后, 采用双向门控循环单元网络对视频的长时间依赖关系进行建模, 得到各视频片段的打分, 再利用时间平均池化方法将各片段分数进行聚合, 得到整个视频的打分结果。在WaterlooSQoE-Ⅲ和LIVE-NFLX-Ⅱ数据集上的实验结果表明, 提出的模型可以获得更高的预测精度。

    Abstract:

    Considering the effects of stalling, quality switching, content characteristics and other factors, which will be directly reflected in the distorted video, a client-oriented mobile video perceptual quality assessment model was proposed. The mapping model between the distorted video and the mean opinion score (MOS) was established based on the idea of "deep feature extraction+regression" instead of characterizing and measuring each influencing factor. First, ResNet-TSM network was constructed to extract the deep spatial-temporal features of each distorted video segmentation. Second, LargeVis algorithm was used to reduce the dimensionality of the extracted deep features, and simultaneously improving the representation and discriminative capabilities of the features. Afterward, the score of each video segment was obtained by modeling the long-term dependence of the video by using the bidirectional gated recurrent unit. The temporal mean pooling was adopted to aggregate the scores of each segment to obtain the overall video score. The experimental results on the WaterlooSQoE-Ⅲ and LIVE-NFLX-Ⅱ datasets show that the proposed model can achieve a higher prediction accuracy.

  • 近年来,随着移动网络和智能终端的发展,尤其是5G技术的出现,移动视频业务出现了迅猛的增长。思科视觉网络指数(visual networking index, VNI)[1]指出,到2022年全球移动数据流量的近4/5将来自视频业务,从2017年至2022年移动视频流量将增长9倍。对于移动视频业务供应商而言,有效利用可用资源进行视频流的传输,同时保证用户的体验质量(quality of experience, QoE)是在激烈的市场竞争中取得成功的关键。

    目前移动视频流传输普遍采用基于HTTP的自适应流媒体协议(dynamic adaptive streaming over HTTP, DASH)[2]。根据DASH协议,在服务器端,视频被切分为多个视频片段,每个片段分别采用不同的码率进行编码并存储。在客户端,视频播放器可以根据网络可用带宽、缓冲区状态等因素自适应确定下一个要播放的视频片段的码率。但是当上述因素发生剧烈波动时,会导致视频质量频繁切换甚至会导致视频播放出现中断,从而严重影响用户的QoE[3]。因此,如何对QoE进行评价打分,以准确反映出用户观看视频的主观体验,就受到工业界和学术界的广泛关注。

    QoE建模的实质在于找到一种映射关系Y=f(X),其中X是影响用户QoE的各种因素,Y是用户的主观感受质量,通常用平均意见得分(mean opinion score, MOS)来度量。近年来,人们提出了各种QoE预测模型[4-9],主要考虑的影响因素有视频编码码率、卡顿、质量切换、内容特性等,首先分别对每种影响因素进行量化和表征,然后采用各种机器学习的方法建立YX之间的关系模型。

    考虑到视频编码码率、卡顿、质量切换、内容特征等对用户QoE的影响都直接体现在用户观看的失真视频里,本文提出了一种客户端的移动失真视频感知质量评价模型。该模型采用MOS对视频的感知质量进行度量,无须对各种影响因素分别进行度量和表征,而是基于“深度特征提取+回归”的思路,直接建立失真视频与MOS之间的映射模型,用于对失真视频的感知质量进行预测。

    本文将提出的模型在2个公开的视频数据集上进行评估,并将其与其他最新的视频感知质量评价模型进行比较,对比结果可以验证本文方法的有效性。

    对于移动视频业务来说,影响用户QoE的因素有很多,既包含主观因素,如兴趣偏好、习惯等,又包含客观因素,如网络状况、卡顿、缓存状态等。这些影响因素相互作用,给QoE评价带来了极大的难度和挑战。

    近年来,人们提出各种QoE评价模型,考虑的影响因素X主要有视频质量、卡顿、质量切换、内容特征等,然后采用各种机器学习的方法建立YX之间的关系模型。比如,文献[4-5]考虑码率、卡顿因素和质量切换因素,分别采用线性回归和对数回归的方法建立了模型;文献[6-7]采用全参考的结构相似指数(structural similarity index plus, SSIMplus)[10]度量视频质量,同时考虑了视频的卡顿因素,建立了线性回归模型;P.1203[8]考虑视频码率、分辨率、卡顿和质量切换等因素,采用随机森林建立了评价模型;Duanmu等[9]以全参考的视频多方法评估融合(video multimethod assessment fusion, VMAF)[11]度量视频的质量,同时考虑卡顿因素和质量切换,采用线性回归的方法建立了模型。

    总地来看,现有的QoE评价模型往往需要分别提取每个影响因素的特征参数,用于对各种影响因素进行量化和表征,然后将多个特征参数组合后形成影响因素特征向量,并采用机器学习的方式建立特征向量和MOS之间的映射关系模型。由于各种影响因素之间存在复杂的关联关系,这种方式很难对影响因素进行有效的量化和表征。

    就建模方法而言,需要强调的是用户在观看视频时的记忆效应也会对感知质量的评估造成影响。Bampis等[12]指出,首因效应和近因效应会在一定程度上影响用户的观看体验,也就是说在视频感知质量评价过程中还应该考虑视频流的长时间依赖关系。文献[13-14]已经证明了长短期记忆(long short-term memory, LSTM)[15]网络可以在连续性视频感知质量度量中获得更好的性能。由于LSTM的复杂结构会导致训练的困难,Cho等[16]采用门控循环单元(gated recurrent unit, GRU)网络很好地解决了这一问题。

    考虑到QoE的各种影响因素之间存在复杂的关联关系,而视频编码码率、卡顿、质量切换、内容特征等对用户主观感知质量的影响都直接体现在用户观看的失真视频里。因此,本文提出了一种客户端的移动视频感知质量评价模型。该模型无须对QoE的每种影响因素均进行表征和度量,而是直接建立失真视频与MOS之间的映射模型。实验结果表明,与现有的QoE评价模型相比,本文提出的模型无须其他的信息,还可以获得更好的性能。

    本文提出的失真视频感知质量评价模型整体框架如图 1所示。为了降低存储和计算压力,将失真视频切分成等长的片段,对每个视频片段分别进行特征提取,然后对各个片段的深度特征进行回归,并进一步聚合得到整个视频的感知质量打分结果。

    图  1  视频感知质量评价模型框架
    Figure  1.  Framework of video perceptual quality assessment model

    本文提出的模型主要包括2个核心部分:1)失真视频片段的深度特征提取。本文采用ResNet-50[17]作为骨干网络,将时间移位模块(temporal shif module,TSM)[18]引入其中,构建了ResNet-TSM网络结构,用于提取视频片段的深度时空特征,然后采用LargeVis算法[19]对深度特征进行降维,减轻后续的计算和存储压力。2)对视频片段之间的长时依赖关系进行建模,建立视频片段的感知质量评价模型,用于对MOS进行预测。最后将每段视频的MOS打分结果进行时间平均池化,获得整个视频的感知质量评价打分结果。下面将分别介绍每个部分的实现细节。

    目前提取视频深度时空特征普遍采用三维卷积神经网络(three-dimensional convolutional neural network,3D CNN),其计算复杂度高,所需存储空间大。为了实现计算效率和性能之间的良好折中,本文构建了ResNet-TSM网络结构,用于提取视频的深度时空特征,深度时空特征提取框图见图 2,在TSM中,T表示提取的特征图的时间维度,C表示特征图的通道维度,HW分别表示特征图的高和宽。

    图  2  基于ResNet-TSM网络的深度特征提取框图
    Figure  2.  Framework of deep feature extraction with ResNet-TSM

    TSM核心思想是将特征图的部分通道沿时间维度进行前后的移位,因此在某一时刻的特征图中会包含相邻帧的信息,可以表达视频的时间特性。另外,由于通道的移动会损害视频帧的空间信息,为了保证空间信息的完整性,TSM通常采用残差的结构插入二维卷积神经网络(two-dimensional convolutional neural network,2D CNN)中。本文采用ResNet-50作为骨干网络,在每个残差单元中都加入了TSM,构建了ResNet-TSM网络结构。由于ResNet50提取的特征图只能表示空间特征,而TSM会将t时刻视频帧的特征图和t-1、t+1时刻的特征图进行部分通道的移位操作,因此t时刻的特征图包含t-1和t+1时刻视频帧的信息。虽然移位操作会影响二维空间维度的特征信息,但是通过残差操作可以使原始的二维空间特征得到保留;由于移位运算基本不消耗计算资源,因此能够以2D CNN的复杂度实现3D CNN的性能。

    为了提升网络训练性能,本文采用了预训练+微调的策略对ResNet-TSM网络进行训练。首先利用ImageNet数据集[20]对ResNet网络进行预训练,训练后的网络参数作为ResNet-TSM网络的初始模型参数。然后,采用失真视频数据集对初始模型参数进行微调,得到优化后的ResNet-TSM网络模型。

    在训练过程中,本文根据失真视频片段的VMAF分数,将其分为5个等级:0~20分为难以接受,20~40分为较差,40~60分为一般,60~80分为较好,80~100分为优秀[13]。属于一个等级的视频帧为一类,整个数据集共有5个类别,用于微调网络参数。在微调过程中,对于每个视频片段,从中随机抽取8帧,然后将各帧归一化为224×224大小,输入到网络中进行训练。

    对于卷积神经网络而言,通常低卷积层可以提取边缘、纹理之类的低层视觉特征,因此本文首先提取了ResNet-TSM网络中Conv4_1层输出,用于表征视频的纹理特征,其维度为8×14×14×256。由于每次插入TSM后网络的时间感受野都会扩大2个单位,故整个框架最后的时间感受野会很大。为了获取足够的时间信息,本文提取ResNet-TSM网络中全连接(fully connected,FC)层之前的8×2 048维输出,用于表征该视频片段的时间特征。2个特征级联起来形成特征向量,用于表征视频片段的时空内容特性。

    从ResNet-TSM网络中提取的时空特征维度分别是8×14×14×256和8×2 048,如此高的特征维度会造成维度灾难。为此,本文采用了LargeVis算法对其进行降维。LargeVis算法是Tang等[19]提出的一种基于概率的降维算法,该算法是面向大数据可视化设计的,其基本思想是在高维空间中距离接近的数据点投影到低维空间后也要保持这种近邻关系,而数据点之间的距离通过条件概率来度量。该方法不仅能有效去除数据中的冗余信息,还可以有效地拉大原来在高维空间中相距较远的不同类别簇之间的距离,缩小类内样本之间的距离,能够有效提升特征的区分能力。

    本文将提取的视频片段的时空特征维度首先从8×14×14×256和8×2 048展平为401 408和16 384,然后利用LargeVis算法将两者的特征维度降至128维,获得一个紧凑的特征表达。最后,本文将降维后的特征级联起来,得到视频片段的深度时空特征表示向量F,可以表示为

    $$ \boldsymbol{F}=C\left(f_1, f_2\right) $$ (1)

    式中:C表示级联操作;f1f2分别表示降维后的视频片段的空间和时间特征;F的维度是256。

    用户在对视频质量进行评判时会受到时间记忆的影响,这意味着在对视频感知质量进行建模的过程中需要考虑复杂的时间依赖关系。Cho等[16]提出了一种LSTM网络的变体,称为GRU网络,其结构比标准LSTM网络的简单,可以在保证精度基本不变的同时减少参数量,加快训练速度。考虑到单向的GRU网络仅考虑前向依赖性,很可能会丢失或无法转发一些有用信息,因此本文采用了BiGRU网络来建模视频的长时依赖关系,其网络框架如图 3所示。将视频片段的深度特征向量Fk送入BiGRU网络,并将BiGRU网络的输出作为集成特征。其中,当前BiGRU单元的输出Yk的公式为

    $$ \boldsymbol{Y}_k=\operatorname{BiGRU}\left(\boldsymbol{Y}_{k-1}, \boldsymbol{F}_k, \boldsymbol{Y}_{k+1}\right) $$ (2)
    图  3  BiGRU网络结构
    Figure  3.  Architecture of BiGRU network

    式中:Fk是当前视频片段的深度时空特征;Yk-1Yk+1分别表示前一个和后一个BiGRU单元的输出。本文中,单个GRU单元的输入和输出维度被分别设置为256和32,即输入Fk为256;输出Yk为64。然后将集成的特征Yk送入2个FC层,进而得到每个视频片段的感知质量打分结果,其中,第1个FC层(FC1)中的神经元数为32个,第2个FC层(FC2)中的神经元数为1个。

    为了将视频片段的分数进行聚合,本文对各个片段的感知质量打分结果进行时间平均池化操作,得到视频整体的感知质量。时间平均池化可用公式表示为

    $$ Q=\frac{1}{N} \sum\limits_{k=1}^N q_k $$ (3)

    式中:N表示视频片段的数目;qk表示第k个视频片段的MOS。

    为了验证所提出评价模型的有效性,本文在WaterlooSQoE-Ⅲ[21]和LIVE-NFLX-Ⅱ[22]2个公开的视频数据集上进行了实验。下面介绍实验结果。

    WaterlooSQoE-Ⅲ数据集包含20个不同内容类型的原始高质量视频,采用H.264编码器对原始视频分别以11个固定码率等级(235~7 000 kbit/s)进行编码,之后将其存储于服务端,客户端根据DASH协议采用6种具有代表性的ABR算法在13种网络环境下进行仿真,获得了450个具有不同失真程度的视频,失真视频的平均持续时长为13 s。最后,根据国际电信联盟主观打分标准,采用单激励方法,经由34个测试人员的打分获取了每个失真视频的MOS。LIVE-NFLX-Ⅱ数据集则包含15个不同类型的原始视频,原始视频根据内容驱动的动态优化器进行码率编码(150~1 000 kbit/s),同时采用4种码率自适应算法在7种不同移动网络条件下进行仿真,生成了包含连续性和回顾性得分的420个失真视频,平均视频时长为25 s。上述2个数据集均采用MOS作为整个视频感知质量的度量指标,其中LIVE-NFLX-Ⅱ数据集还进一步提供了每个失真视频帧的MOS。

    为了评估算法的性能,本文采用了最常用的3个性能评估指标:皮尔森线性相关系数(Pearson's linear correlation coefficient, PLCC)、斯皮尔曼秩相关系数(Spearman rank-order correlation coefficient, SROCC)和肯德尔秩次相关系数(Kendall rank-order correlation coefficient, KROCC)。3个指标的数值越高,则表示模型的预测性能越好。PLCC、SROCC的定义分别为

    $$ V_{\mathrm{PLCC}}=\frac{\sum\limits_{i=1}^n\left(y_{\mathrm{p} i}-\bar{y}_{\mathrm{p}}\right)\left(y_i-\bar{y}\right)}{\sqrt{\sum\limits_{i=1}^n\left(y_{\mathrm{p} i}-\bar{y}_{\mathrm{p}}\right)^2\left(y_i-\bar{y}\right)^2}} $$ (4)
    $$ V_{\mathrm{SROCC}}=1-\frac{6 \sum\limits_{i=1}^n d_i^2}{n\left(n^2-1\right)} $$ (5)

    式中:ypiyi分别表示第i个视频的预测分数和真实分数;ypy分别表示预测平均值和真实平均值;n表示测试集中视频的个数;di表示第i个视频的预测分数和真实分数之间的差异量。KROCC的定义为

    $$ V_{\text {KROCC }}=(S-R) / N $$ (6)

    对于KROCC, 将预测分数$y_{\mathrm{p} i}$和真实分数$y_i$组成$n$个数据对, 从$n$个数据对中任取2个数据对$\left\{\left(y_{\mathrm{p} i}, y_i\right), \left(y_{\mathrm{p} j}, y_j\right)\right\}, (i \neq j)$, 共有$N=n(n-1) / 2$种可能。对任取的2个数据对, 若$y_{\mathrm{p} i}>y_i, y_{\mathrm{p} j}>y_j$或者$y_{\mathrm{p} i}<y_i, y_{\mathrm{p} j}<y_j$, 则这样的数据对被称为同序数据对; 若$y_{\mathrm{pi}}>y_i, y_{\mathrm{p} j}<y_j$或者$y_{\mathrm{p} i}<y_i, y_{\mathrm{p} j}>y_j$, 则这样的数据对被称为逆序数据对; $S$表示同序数据对的个数, $R$表示逆序数据对的个数。

    本文将失真视频数据集随机切分为2个子集,其中80%用于训练,20%用于测试。在分段视频特征提取阶段,本文将视频切分成长度为3 s的若干个视频片段。WaterlooSQoE-Ⅲ数据集中的失真视频被切分为4个片段,LIVE-NFLX-Ⅱ数据集的视频则被切分为8个片段。模型的训练分为两部分进行,其相关参数设置如下:

    1) 在特征提取阶段。利用切分后的失真视频片段对预训练后的ResNet-TSM网络进行微调。在选择特征通道进行移位的过程中,为了避免移位操作对空间特征造成过多的损伤,同时获取更多的时间特征,本文选择将特征图中1/8的通道进行前向移位,1/8的通道进行后向移位,从而获取视频帧之间的前后向时间依赖关系。微调时训练时迭代次数设置为70,初始学习率为1×10-3,批次大小为12。

    2) 在视频的长时依赖关系建模阶段,本文选择将LargeVis算法降维后获得维数为256的深度时空特征作为每个BiGRU网络单元的输入,输出为MOS。在训练过程中迭代次数、初始学习率和批次大小分别设置为3 000、6×10-4和16。

    如前所述,每个视频片段提取的特征维度分别为8×14×14×256和8×2 048,这么高的维度会给后续的计算和存储带来极大的压力。为了避免维度灾难,本文采用LargeVis算法对视频的深度特征进行降维。为了研究不同特征维度对模型性能的影响,本文将每个特征的维度分别降维至32、64、128、256和512,然后再进行建模,实验结果如表 1所示。可以看出,当特征维度降至128时,所提出的模型在2个数据集上均能获得较好的性能。综合考虑模型复杂度和模型的性能,本文选择将LargeVis算法降维后的维度设置为128。

    表  1  LargeVis算法降维对模型性能的影响
    Table  1.  Influence of LargeVis dimensionality reduction on QoE model accuracy
    特征维度 WaterlooSQoE-Ⅲ LIVE-NFLX-Ⅱ
    VPLCC VSROCC VKROCC VPLCC VSROCC VKROCC
    32 0.892 3 0.852 5 0.669 9 0.948 4 0.939 3 0.791 2
    64 0.877 9 0.850 1 0.674 4 0.943 1 0.937 6 0.795 2
    128 0.906 0 0.862 2 0.700 4 0.958 3 0.955 9 0.819 3
    256 0.906 6 0.852 3 0.679 4 0.957 7 0.947 3 0.806 4
    512 0.901 2 0.861 5 0.691 7 0.960 0 0.947 8 0.815 3
    未降维 0.869 1 0.833 4 0.674 1 0.912 2 0.903 7 0.789 6
    下载: 导出CSV 
    | 显示表格

    为了进一步研究ResNet-TSM网络和ResNet网络提取的特征对于模型性能的影响,本文提取了ResNet-TSM网络和ResNet网络中Conv2_1到Conv4_1的特征,并采用LargeViS算法将维度降到128,分别建立了视频感知质量评价模型。在2个数据集上的实验结果如表 2所示。对比表中2个网络Conv2_1、Conv3_1与Conv4_1的结果可以看出,提取Conv4_1特征建立的模型性能最优。同时,提取2个网络低层特征建立的模型性能相差较小,这是由于ResNet-TSM网络主要增加了模型对于时间特性的表达能力,而空间表达能力则与ResNet网络相近。

    表  2  不同特征参数对模型性能的影响
    Table  2.  Influence of the combination of different influencing factors on model performance
    网络结构 特征参数 WaterlooSQoE-Ⅲ LIVE-NFLX-Ⅱ
    VPLCC VSROCC VKROCC VPLCC VSROCC VKROCC
    Conv2_1 0.681 3 0.665 1 0.483 0 0.798 1 0.783 6 0.562 6
    ResNet-TSM Conv3_1 0.714 2 0.687 3 0.507 2 0.820 5 0.812 1 0.617 8
    Conv4_1 0.750 5 0.722 2 0.540 1 0.868 0 0.856 7 0.678 1
    Conv2_1 0.663 8 0.644 1 0.462 2 0.770 4 0.760 6 0.546 3
    ResNet50 Conv3_1 0.678 5 0.668 9 0.479 4 0.788 1 0.788 1 0.563 1
    Conv4_1 0.691 1 0.687 6 0.497 1 0.795 2 0.783 3 0.570 4
    下载: 导出CSV 
    | 显示表格

    本文分别提取了ResNet-TSM网络的低层输出f1和高层输出f2,分别表示视频片段的空间纹理特征和短时时间特征。为了研究f1f2对模型性能的影响,本文对其进行了组合,分别建立了视频感知质量评价模型。在2个数据集上的实验结果如表 3所示。

    表  3  不同影响因素组合对模型性能的影响
    Table  3.  Influence of the combination of different influencing factors on model performance
    特征参数 WaterlooSQoE-Ⅲ LIVE-NFLX-Ⅱ
    VPLCC VSROCC VKROCC VPLCC VSROCC VKROCC
    f1 0.750 5 0.722 2 0.540 1 0.868 0 0.856 7 0.678 1
    f2 0.874 4 0.817 7 0.650 9 0.948 2 0.937 4 0.794 6
    f1+f2 0.906 0 0.862 2 0.700 4 0.958 3 0.955 9 0.819 3
    下载: 导出CSV 
    | 显示表格

    通过表 3的结果可以看出:只考虑低层空间纹理特征f1的情况下,模型准确度最低,这是由于缺乏视频片段的时间信息。相比而言,深层的特征f2可以很好地表征视频片段的时间信息,与f1相比,在WaterlooSQoE-Ⅲ数据集上VPLCCVSROCCVKROCC分别提升12.39%、9.55%和11.08%,在LIVE-NFLX-Ⅱ数据集上3个指标分别提升8.02%、8.07%和11.65%。而f1f2组合起来可以很好地表征视频片段的时空内容特征,与仅利用f1或者f2相比,模型可以获得最优的预测精度。

    为了验证不同建模方法对于模型性能的影响,本文以组合后的深度时空特征向量作为输入,分别采用决策树、支持向量回归(support vector regression, SVR)等8种浅层机器学习的方法和4种可以建模长时间依赖关系的方法来建立感知质量预测模型。对比实验结果如表 4所示。从表 4的结果可以看出:

    表  4  采用不同建模方法得到的模型性能比较
    Table  4.  Comparison results of the performance with different modeling methods
    建模方法 WaterlooSQoE-Ⅲ LIVE-NFLX-Ⅱ
    VPLCC VSROCC VKROCC VPLCC VSROCC VKROCC
    Decision Tree 0.681 2 0.650 2 0.484 8 0.891 2 0.885 3 0.708 2
    Bagging Regressor 0.862 3 0.800 0 0.626 5 0.917 1 0.897 0 0.736 7
    Bayesian Regressor 0.876 6 0.813 7 0.634 0 0.901 5 0.894 3 0.718 6
    KNeighbors Regressor 0.825 7 0.747 8 0.604 0 0.884 9 0.873 9 0.681 4
    SVR 0.869 0 0.816 8 0.644 4 0.902 1 0.886 2 0.706 2
    Ridge Regressor 0.889 1 0.820 6 0.644 9 0.919 5 0.907 5 0.742 4
    LassoCV 0.876 3 0.809 4 0.625 5 0.905 8 0.899 2 0.731 1
    Random Forest 0.872 6 0.829 0 0.658 4 0.920 0 0.907 8 0.752 5
    LSTM 0.903 1 0.837 9 0.672 4 0.948 7 0.939 0 0.787 1
    BiLSTM 0.906 2 0.841 4 0.677 9 0.955 1 0.946 2 0.807 8
    GRU 0.907 6 0.845 3 0.679 9 0.957 2 0.950 1 0.809 0
    BiGRU 0.906 0 0.862 2 0.700 4 0.958 3 0.955 9 0.819 3
    下载: 导出CSV 
    | 显示表格

    1) 浅层机器学习方法中,随机森林方法可以获得最优的性能。

    2) 相比于浅层机器学习方法,LSTM等4种对长时依赖关系进行建模的网络可以获得更优的性能。

    3) 相比于LSTM网络,采用GRU进行建模,模型的预测准确度更高,在WaterlooSQoE-Ⅲ数据集上VPLCCVSROCCVKROCC分别提升了0.45%、0.74%和0.75%,在LIVE-NFLX-Ⅱ数据集上3个评估指标分别提升0.85%、1.11%和2.19%。

    4) 通过分别对比LSTM、BiLSTM网络,GRU、BiGRU网络可以看出,相比于单向网络,双向网络的表现更加出色。这是由于单向网络仅考虑前向依赖,可能会丢失或者无法转发一些重要的信息。但是需要指出的是,双向网络的结构复杂度、参数规模也要明显高于单向网络。

    为了评估本文提出的模型性能,本文将其在WaterlooSQoE-Ⅲ和LIVE-NFLX-Ⅱ数据集上与现有的各种QoE评价模型进行了比较。在实验过程中,本文采用LargVis算法将视频片段的深度特征f1f2的维度均降至128,级联后深度特征的维度为256,并采用BiGRU网络进行长时依赖关系的建模。参与对比的模型有7种,分别是:

    1) Yin 2015[4]和Spiteri 2016[5]。采用编码码率作为视频质量表示,同时提取了卡顿和质量切换的特征参数,最后分别采用线性回归和对数回归的方法建立了预测模型。

    2) Bentaleb 2016[6]和SQI[7]。以全参考SSIMplus度量视频质量,同时考虑了视频的卡顿因素,建立了线性回归模型。

    3) P.1203[8]。提取了编码码率、分辨率、卡顿因素和质量切换因素等方面的特征形成影响因素向量,并采用随机森林的方法建立了预测模型。

    4) KSQI[9]。以全参考VMAF指标来度量视频质量,结合卡顿因素和质量切换等方面的特征参数,采用线性回归方法建立了预测模型。

    5) CGNN[23]。提取了图像空间质量、卡顿时长、帧率、质量切换等多种影响因素,采用CNN和GRU网络构建了深度神经网络,建立了预测模型。参与对比的模型在2个基准数据集上预测结果均引用自文献[9, 23],各个模型的对比结果如表 5所示。可以看到:

    表  5  不同QoE模型的性能比较
    Table  5.  Modeling methods performance comparison with other state-of-the-art QoE models
    QoE模型 WaterlooSQoE-Ⅲ LIVE-NFLX-Ⅱ
    VPLCC VSROCC VKROCC VPLCC VSROCC VKROCC
    Yin2015[4] 0.722 0.714 0.543 0.673 0.686 0.482
    Spiteri2016[5] 0.809 0.798 0.597 0.731 0.711 0.712
    Bentaleb2016[6] 0.625 0.718 0.521 0.898 0.883 0.712
    SQI[7] 0.673 0.690 0.496 0.910 0.906 0.735
    P.1203[8] 0.769 0.797 0.604 0.817 0.821 0.619
    KSQI[9] 0.794 0.776 0.584 0.905 0.893 0.722
    CGNN-QoE[23] 0.890 0.881 0.707 0.935 0.927 0.778
    本文方法 0.906 0 0.862 2 0.700 4 0.958 3 0.955 9 0.819 3
    下载: 导出CSV 
    | 显示表格

    1) 相比于其他模型,本文提出的模型获得了性能上的大幅提升,这是由于本文的方法提取的深度时空特征可以更有效地表示视频的内容特性,对于视频质量、卡顿、质量切换等因素对视频失真造成的影响可以很好地进行表征,同时也在一定程度上缓解了分别提取不同影响因素特征参数时难以有效表示不同特征之间的复杂关系这一问题。另外,本文采用的BiGRU网络非常适合从时变的视频中学习到长时依赖关系信息,从而获得更高的模型精度。

    2) 各个模型在WaterlooSQoE-Ⅲ数据集上的预测准确度普遍低于LIVE-NFLX-Ⅱ数据集,这与WaterlooSQoE-Ⅲ数据集的失真情况比较复杂有关。

    1) 采用ResNet-TSM网络提取的深度时空特征可以有效地表示视频的内容特性。

    2) LargeVis算法可以有效地对高维特征进行降维,在避免维度灾难的同时有效提升了特征的表达与区分能力。

    3) BiGRU网络具有同时学习视频的前向依赖和后向依赖关系的能力,可以有效表征视频片段间的长时间依赖关系,同时结构更加简单、参数更少且收敛性更好。

    4) 相比于其他模型,本文提出的模型获得了性能上的大幅提升。

  • 图  1   视频感知质量评价模型框架

    Figure  1.   Framework of video perceptual quality assessment model

    图  2   基于ResNet-TSM网络的深度特征提取框图

    Figure  2.   Framework of deep feature extraction with ResNet-TSM

    图  3   BiGRU网络结构

    Figure  3.   Architecture of BiGRU network

    表  1   LargeVis算法降维对模型性能的影响

    Table  1   Influence of LargeVis dimensionality reduction on QoE model accuracy

    特征维度 WaterlooSQoE-Ⅲ LIVE-NFLX-Ⅱ
    VPLCC VSROCC VKROCC VPLCC VSROCC VKROCC
    32 0.892 3 0.852 5 0.669 9 0.948 4 0.939 3 0.791 2
    64 0.877 9 0.850 1 0.674 4 0.943 1 0.937 6 0.795 2
    128 0.906 0 0.862 2 0.700 4 0.958 3 0.955 9 0.819 3
    256 0.906 6 0.852 3 0.679 4 0.957 7 0.947 3 0.806 4
    512 0.901 2 0.861 5 0.691 7 0.960 0 0.947 8 0.815 3
    未降维 0.869 1 0.833 4 0.674 1 0.912 2 0.903 7 0.789 6
    下载: 导出CSV

    表  2   不同特征参数对模型性能的影响

    Table  2   Influence of the combination of different influencing factors on model performance

    网络结构 特征参数 WaterlooSQoE-Ⅲ LIVE-NFLX-Ⅱ
    VPLCC VSROCC VKROCC VPLCC VSROCC VKROCC
    Conv2_1 0.681 3 0.665 1 0.483 0 0.798 1 0.783 6 0.562 6
    ResNet-TSM Conv3_1 0.714 2 0.687 3 0.507 2 0.820 5 0.812 1 0.617 8
    Conv4_1 0.750 5 0.722 2 0.540 1 0.868 0 0.856 7 0.678 1
    Conv2_1 0.663 8 0.644 1 0.462 2 0.770 4 0.760 6 0.546 3
    ResNet50 Conv3_1 0.678 5 0.668 9 0.479 4 0.788 1 0.788 1 0.563 1
    Conv4_1 0.691 1 0.687 6 0.497 1 0.795 2 0.783 3 0.570 4
    下载: 导出CSV

    表  3   不同影响因素组合对模型性能的影响

    Table  3   Influence of the combination of different influencing factors on model performance

    特征参数 WaterlooSQoE-Ⅲ LIVE-NFLX-Ⅱ
    VPLCC VSROCC VKROCC VPLCC VSROCC VKROCC
    f1 0.750 5 0.722 2 0.540 1 0.868 0 0.856 7 0.678 1
    f2 0.874 4 0.817 7 0.650 9 0.948 2 0.937 4 0.794 6
    f1+f2 0.906 0 0.862 2 0.700 4 0.958 3 0.955 9 0.819 3
    下载: 导出CSV

    表  4   采用不同建模方法得到的模型性能比较

    Table  4   Comparison results of the performance with different modeling methods

    建模方法 WaterlooSQoE-Ⅲ LIVE-NFLX-Ⅱ
    VPLCC VSROCC VKROCC VPLCC VSROCC VKROCC
    Decision Tree 0.681 2 0.650 2 0.484 8 0.891 2 0.885 3 0.708 2
    Bagging Regressor 0.862 3 0.800 0 0.626 5 0.917 1 0.897 0 0.736 7
    Bayesian Regressor 0.876 6 0.813 7 0.634 0 0.901 5 0.894 3 0.718 6
    KNeighbors Regressor 0.825 7 0.747 8 0.604 0 0.884 9 0.873 9 0.681 4
    SVR 0.869 0 0.816 8 0.644 4 0.902 1 0.886 2 0.706 2
    Ridge Regressor 0.889 1 0.820 6 0.644 9 0.919 5 0.907 5 0.742 4
    LassoCV 0.876 3 0.809 4 0.625 5 0.905 8 0.899 2 0.731 1
    Random Forest 0.872 6 0.829 0 0.658 4 0.920 0 0.907 8 0.752 5
    LSTM 0.903 1 0.837 9 0.672 4 0.948 7 0.939 0 0.787 1
    BiLSTM 0.906 2 0.841 4 0.677 9 0.955 1 0.946 2 0.807 8
    GRU 0.907 6 0.845 3 0.679 9 0.957 2 0.950 1 0.809 0
    BiGRU 0.906 0 0.862 2 0.700 4 0.958 3 0.955 9 0.819 3
    下载: 导出CSV

    表  5   不同QoE模型的性能比较

    Table  5   Modeling methods performance comparison with other state-of-the-art QoE models

    QoE模型 WaterlooSQoE-Ⅲ LIVE-NFLX-Ⅱ
    VPLCC VSROCC VKROCC VPLCC VSROCC VKROCC
    Yin2015[4] 0.722 0.714 0.543 0.673 0.686 0.482
    Spiteri2016[5] 0.809 0.798 0.597 0.731 0.711 0.712
    Bentaleb2016[6] 0.625 0.718 0.521 0.898 0.883 0.712
    SQI[7] 0.673 0.690 0.496 0.910 0.906 0.735
    P.1203[8] 0.769 0.797 0.604 0.817 0.821 0.619
    KSQI[9] 0.794 0.776 0.584 0.905 0.893 0.722
    CGNN-QoE[23] 0.890 0.881 0.707 0.935 0.927 0.778
    本文方法 0.906 0 0.862 2 0.700 4 0.958 3 0.955 9 0.819 3
    下载: 导出CSV
  • [1]

    FORECAST G. Cisco visual networking index: global mobile data traffic forecast update, 2017—2022[R/OL]. [2022-02-22]. https://branden.biz/wp-content/uploads/2019/05/white-paper-c11-738429.pdf.

    [2]

    MPEG I. Information technology-dynamic adaptive streaming over http (dash)-part 1: media presentation description and segment formats. [R/OL]. [2022-02-22]. https://www.w3.org/2010/11/web-and-tv/papers/webtv2_submission_64.pdf.

    [3]

    AKHSHABI S, BEGEN A C, DOVROLIS C. An experimental evaluation of rate-adaptation algorithms in adaptive streaming over HTTP[C]//Proceedings of the Second Annual ACM Conference on Multimedia Systems. New York: Association for Computing Machinery, 2011: 157-168.

    [4]

    YIN X, JINDAL A, SEKAR V, et al. A control-theoretic approach for dynamic adaptive video streaming over HTTP[C]//Proceedings of the 2015 ACM Conference on Special Interest Group on Data Communication. New York: Association for Computing Machinery, 2015: 325-338.

    [5]

    SPITERI K, URGAONKAR R, SITARAMAN R K. BOLA: Near-optimal bitrate adaptation for online videos[J]. IEEE/ACM Transactions on Networking, 2020, 28(4): 1698-1711. doi: 10.1109/TNET.2020.2996964

    [6]

    BENTALEB A, BEGEN A C, ZIMMERMANN R. SDNDASH: improving QoE of HTTP adaptive streaming using software defined networking[C]//Proceedings of the 24th ACM international conference on Multimedia. New York: Association for Computing Machinery, 2016: 1296-1305.

    [7]

    DUANMU Z, ZENG K, MA K, et al. A quality-of-experience index for streaming video[J]. IEEE Journal of Selected Topics in Signal Processing, 2016, 11(1): 154-166.

    [8]

    RECOMMENDATION I. 1203. 3, Parametric bitstream-based quality assessment of progressive download and adaptive audiovisual streaming services over reliable transport-quality integration module[R/OL]. [2022-02-22]. https://www.itu.int/rec/T-REC-P.1203.

    [9]

    DUANMU Z, LIU W, CHEN D, et al. A knowledge-driven quality-of-experience model for adaptive streaming videos[J/OL]. arXiv preprint arXiv: 1911.07944, 2019: 1-12[2022-02-22]. https://arxiv.org/abs/1911.07944.

    [10]

    REHMAN A, ZENG K, WANG Z. Display device-adapted video quality-of-experience assessment[EB/OL]. Human Vision and Electronic Imaging XX, 2015, 9394: 939406[2022-02-22]. https://cin.ufpe.br/~cabm/visao/artigos/939406.pdf.

    [11]

    LI Z, AARON A, KATSAVOUNIDIS I, et al. Toward a practical perceptual video quality metric[R/OL]. [2022-02-22]. https://netflixtechblog.com/toward-a-practical-perceptual-video-quality-metric-653f208b9652

    [12]

    BAMPIS C G, LI Z, MOORTHY A K, et al. Study of temporal effects on subjective video quality of experience[J]. IEEE Transactions on Image Processing, 2017, 26(11): 5217-5231. doi: 10.1109/TIP.2017.2729891

    [13]

    ESWARA N, ASHIQUE S, PANCHBHAI A, et al. Streaming video QoE modeling and prediction: a long short-term memory approach[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2019, 30(3): 661-673.

    [14]

    DUC T N, TRAN C M, TAN P X, et al. Bidirectional LSTM for continuously predicting QoE in HTTP adaptive streaming[C]//Proceedings of the 2019 2nd International Conference on Information Science and Systems. New York: Association for Computing Machinery, 2019: 156-160.

    [15]

    HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780. doi: 10.1162/neco.1997.9.8.1735

    [16]

    CHO K, VAN MERRIËNBOER B, GULCEHRE C, et al. Learning phrase representations using RNN encoder-decoder for statistical machine translation[C]//Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, Penssylvania, USA: Association for Computational Liguistics, 2014: 1724-1734.

    [17]

    HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ, USA: IEEE, 2016: 770-778.

    [18]

    LIN J, GAN C, HAN S. TSM: Temporal shift module for efficient video understanding[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Piscataway, NJ, USA: IEEE, 2019: 7083-7093.

    [19]

    TANG J, LIU J, ZHANG M, et al. Visualizing large-scale and high-dimensional data[C]//Proceedings of the 25th International Conference on World Wide Web. Geneva, Switzerland: International World Wide Web Conferences Steering Committee, 2016: 287-297.

    [20]

    DENG J, DONG W, SOCHER R, et al. ImageNet: a large-scale hierarchical image database[C]//2009 IEEE conference on computer vision and pattern recognition. Piscataway, NJ, USA: IEEE, 2009: 248-255.

    [21]

    DUANMU Z, REHMAN A, WANG Z. A quality-of-experience database for adaptive video streaming[J]. IEEE Transactions on Broadcasting, 2018, 64(2): 474-487. doi: 10.1109/TBC.2018.2822870

    [22]

    BAMPIS C G, LI Z, KATSAVOUNIDIS I, et al. Towards perceptually optimized adaptive video streaming-a realistic quality of experience database[J]. IEEE Transactions on Image Processing, 2021, 30: 5182-5197. doi: 10.1109/TIP.2021.3073294

    [23]

    ZHOU Z M, DONG Y, SONG L, et al. Quality of experience evaluation for streaming video using CGNN[C]//2020 IEEE International Conference on Visual Communications and Image Processing. Piscataway, NJ, USA: IEEE, 2020: 285-288.

  • 期刊类型引用(1)

    1. 袁航. 面向IP网络传输的4K超高清视频质量监测分析. 电视技术. 2024(12): 164-167+181 . 百度学术

    其他类型引用(1)

图(3)  /  表(5)
计量
  • 文章访问数:  171
  • HTML全文浏览量:  23
  • PDF下载量:  59
  • 被引次数: 2
出版历程
  • 收稿日期:  2022-02-23
  • 修回日期:  2022-03-23
  • 网络出版日期:  2023-11-28
  • 刊出日期:  2024-01-09

目录

/

返回文章
返回