一种基于ST-Unet的视频异常检测方法转让专利

申请号 : CN201811501290.2

文献号 : CN109711280B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 蔡轶珩李媛媛刘嘉琦马杰

申请人 : 北京工业大学

摘要 :

基于ST‑Unet网络的视频异常检测方法,涉及计算机视觉以及模式识别领域。本发明针对视频这类具有强时空相关性数据的处理问题提出新的ST‑Unet网络,该网络即利用了Unet网络在空间特征上良好的建模能力又结合了ConvLSTM在时间上的建模能力。为提高算法的准确性及其泛华能力,本发明在算法训练过中对输入的视频数据利用Dropout层进行“损坏”预处理。通过“损坏”的训练数据训练得到的网络不仅可以对完好的测试数据有较好的异常检测效果,对测试过程含噪的数据亦可检测出是否异常。本发明将重构算法结果与预测算法结果进行联合判别,实现了高精度的基于ST‑Unet网络的视频异常检测算法。

权利要求 :

1.基于ST-Unet的视频异常检测方法,其特征在于,包括以下步骤:

(1)、预处理

将长视频数据切分成单独的视频帧,对切分得到的视频帧图像进行随机的损坏处理,即利用Dropout层随机将图像中的某些值置零;

(2)、构建ST-Unet网络

具体网络搭建步骤如下:

输入层,C1、C2两层卷积层,P1第一次下采样,C3、C4两层卷积层,P2第二次下采样,C5、C6两层卷积层,P3第三次下采样;L1、L2、L3 三层ConvLSTM层;U1第一次上采样,C7、C8两层卷积层,U2第二次上采样,C9、C10两层卷积层,U3第三次上采样,C11、C12两层卷积层,输出层;形成一个前后对称的且加有长短时记忆的U型深度网络构架,ST-Unet;

(3)、利用ST-Unet网络实现基于重构和预测的视频异常检测算法

将预处理后的连续四帧视频帧输入到ST-Unet网络中,分别训练得到重构图像和预测图像;通过最小化输入的视频帧图像与重构图像、预测未来帧图像与真正未来帧图像之间的差值来进行网络优化;并利用对抗模型,将重构图像、预测未来帧图像与对应的ground-truth 同时输入到判别模型中,训练最终目的是使得判别模型无法辨别输入的是重构或预测生成的图像还是原ground-truth;

测试过程:

将测试集中的原始长视频切分成单帧视频帧,然后直接输入到训练好的ST-Unet网络中,分别得到重构图像、预测图像;通过比较输入图像与重构图像得到重构误差;通过比较输入图像与预测图像得到预测误差;对得到的重构误差和预测误差进行加权处理,得到最终的异常分数;通过比较异常分数与所设阈值之间的差异,来判定输入的视频帧是否属于异常。

2.根据权利要求1所述的方法,其特征在于:对得到的重构误差和预测误差进行加权处理,预测异常分数和重构异常分数的加权值均设为 0.5;阈值取0.679。

说明书 :

一种基于ST-Unet的视频异常检测方法

技术领域

[0001] 本发明属于计算机视觉和模式识别领域,涉及一种ST-Unet网络的视频异常检测方法。

背景技术

[0002] 随着社会的不断进步,平安城市的概念逐步成为人们最为关注的话题之一。其中,完善的监控系统是建设平安城市非常重要的一环,视频监控技术成为目前最重要的安防监控的手段和方法。目前,普遍的监控视频处理方法都还是较为初级的监控方式,即利用监控摄像头拍摄画面并提供实时显示,由监管人员实时观察监控视频,根据经验来判断是否有异常事件发生。这种监控方式不仅需要管理人员对监控视频画面时刻观察,耗费大量劳动力,且专人观察易疲劳,注意力不可能长时间集中在监控视频上,易出现漏检现象。因此,智能的高精度的视频异常检测系统成为监控管理的迫切需求。视频异常检测系统可以实时检测监控画面,当异常出现时给予管理人员警示,这不仅减少人力资源的投入,还使得实时处理所有拍摄摄像头传回的大量的视频数据成为可能,更好的维护社会治安,建设平安城市。
[0003] 由于日常监控视频数据中大多为正常事件,异常事件很少发生且异常事件类型多种多样、难以预测,故现有的异常检测算法均基于非监督和半监督的方法,且非监督的异常检测算法种大多基于自编码器的结构。针对视频数据强时空相关性的特点,部分算法又在自编码器中加入LSTM结构来增强算法在时间上的建模能力,但这种提取特征后再进行时间上建模的方法仍忽略了许多时候视频数据的时空特征。

发明内容

[0004] 针对现有算法的不足,本发明提出一个高精度的基于ST-Unet网络的视频异常检测算法。在Unet网络中加入ConvLSTM结构,即利用了Unet网络对输入数据多尺度建模的特点,又加入ConvLSTM加强对输入数据时间上的建模。相较于现有算法,本发明提出的ST-Unet网络对视频类具有强时空相关性的数据有很好的建模作用,在视频异常检测问题方面有较高的准确率。
[0005] 本发明提供一种高精度基于ST-Unet网络的视频异常检测算法,包括以下步骤:
[0006] 1、预处理
[0007] 首先,将原始的长视频数据切分成单帧的视频帧图像。其次,对切分好的视频帧利用Dropout层进行“损坏”处理,即随意使输入的视频帧的某些值置零。
[0008] 2、构造ST-Unet网络
[0009] 本发明所构建的网络结构为:
[0010] 输入层,两层卷积层(C1、C2),第一次下采样(P1),两层卷积层(C3、C4),第二次下采样(P2),两层卷积层(C5、C6),第三次下采样(P3);三层ConvLSTM层(L1、L2、L3);第一次上采样(U1),两层卷积层(C6、C7),第二次上采样(U2),两层卷积层(C8、C9),第三次上采样(U3),两层卷积层(C10、C11),输出层。形成一个前后对称的且加有长短时记忆的U型深度网络构架,ST-Unet。
[0011] 3、利用ST-Unet网络实现基于重构和预测的视频异常检测算法
[0012] 训练过程:
[0013] 对训练集中的原始长视频切分成单帧视频帧,并做“损坏”预处理。将预处理后的连续四帧视频帧输入到ST-Unet网络中,分别训练得到重构ST-Unet网络和预测ST-Unet网络。通过最小化输入的视频帧图像与重构图像、预测未来帧图像与真正未来帧图像之间的差值来进行网络优化。并利用生成对抗模型,将重构图像、预测未来帧图像与对应的ground truth同时输入到判别模型中让判别网络进行判别。ST-Unet网络与判别模型共同训练,最终使得判别模型无法辨别输入的是(重构、预测)生成的图像还是原始ground truth,进一步优化ST-Unet网络,提高准确性。
[0014] 测试过程:
[0015] 将测试集中的原始长视频切分成单帧视频帧,然后直接输入到训练好的重构ST-Unet网络和预测ST-Unet网络中,分别得到重构图像、预测图像。通过比较输入图像与重构图像得到重构误差。通过比较输入图像与预测图像得到预测误差。
[0016] 为进一步提高算法准确率,本算法对得到的重构误差和预测误差进行加权处理,计算得最终的异常分数。通过比较异常分数与所设阈值之间的差异,来判定该输入的视频帧是否属于异常。
[0017] 有益效果
[0018] 1、本发明对输入的视频帧数据采用“损坏”预处理
[0019] 为提高网络的泛华能力,使其提取最为重要的数据特征,本发明对输入的视频帧图像进行“损坏”处理。通过训练,使得网络不仅可以对输入的完整视频帧进行处理,当输入“受损”、“含噪”的视频帧时,它亦可以提取出关键的重要的特征进行处理,提高算法的准确性。
[0020] 2、本发明提出ST-Unet网络
[0021] Unet网络的特点在于其在上采样的过程中,每上采样一次就和特征提取部分(即下采样过程)对应的相同尺度的输出进行融合,故Unet网络在空间上对输入图像有很好的建模效果,但对于视频异常检测这类输入数据具有强时间相关性的问题,本发明提出的ST-Unet网络,在Unet网络中加入ConvLSTM层来加强对输入数据时间上特征的提取,更适合处理该类问题。
[0022] 3、本发明利用ST-Uet网络实现基于重构和预测的视频异常检测算法
[0023] 现有视频异常检测的重构算法均基于卷积自编码器来实现(即卷积提取特征后再反卷积进行重构),其中也包括在卷积层最后加入ConvLSTM来加强时间上特征联系的方法,但这种提取特征后进行时间建模的方法仍丢失了部分时空特征信息。本发明提出利用ST-Unet网络进行视频帧重构,该方法比自编码器利用更多尺度的空间特征信息进行重构,且在时间上也较强的特征提取能力。
[0024] 目前已有利用Unet网络进行预测未来帧,并通过预测误差来进行视频异常检测的算法,但该算法只注重了对于输入视频数据空间上特征的提取,忽略了输入视频数据在时间上的强相关性。本发明利用提出的ST-Unet网络进一步改进基于预测的视频异常检测算法,提高视频异常检测的精度。
[0025] 4、基于重构和预测的视频异常联合检测算法
[0026] 为进一步提高准确率,本发明在分别得到重构误差及预测误差后,进行两误差值的加权平均处理,将取平均后的值作为最后的异常分数值。该处理综合考虑了重构算法及预测算法所得结果,除预测未来帧外又进行了当前帧的重构,联合判别,进一步提高了算法的准确率。附图说明:
[0027] 图1为本发明预处理网络图。
[0028] 图2为本发明ST-Unet网络图。
[0029] 图3为本发明利用ST-Unet实现重构算法的训练流程图。
[0030] 图4为本发明利用ST-Unet实现预测算法的训练流程。
[0031] 图5为本发明算法测试流程图。
[0032] 具体实施方法
[0033] 下面结合附图对本发明的具体实施方法进行详细说明。
[0034] 1、预处理
[0035] 将连续的长视频切分成单一的视频帧图像,并将切分好的视频帧图像输入到由单一Dropout层构成的预处理网络中,得到预处理后的“损坏”视频帧图像数据。具体网络结构如图1所示,其中Dropout层的keep_prob设置为0.8。
[0036] 2、构建ST-Unet网络
[0037] 如图2所示。本发明所构造的ST-Unet网络的各层具体参数如下:
[0038] ①、C1、C2两卷积层:输入尺寸为256×256,输入通道数为3,卷积核为3×3,步长为1,边缘填充方式为‘valid’,激活函数为ReLU,输出尺寸为256×256,输出通道数为64。
[0039] ②、P1下采样层:输入尺寸为256×256,输入通道数为64,池化核为2×2,步长为1,边缘填充方式为‘same’,输出尺寸为128×128。
[0040] ③、C3、C4两卷积层:输入尺寸为128×128,输入通道数为64,卷积核为3×3,步长为1,边缘填充方式为‘valid’,激活函数为ReLU,输出尺寸为128×128,输出通道数为128。
[0041] ④、P2下采样层:输入尺寸为128×128,输入通道数为128,池化核为2×2,步长为1,边缘填充方式为‘same’,输出尺寸为64×64,
[0042] ⑤、C5、C6两卷积层:输入尺寸为64×64,输入通道数为128,卷积核为3×3,步长为1,边缘填充方式为‘valid’,激活函数为ReLU,输出尺寸为64×64,输出通道数为256。
[0043] ⑥、P3下采样层:输入尺寸为64×64,输入通道数为256,池化核为2×2,步长为1,边缘填充方式为‘same’,输出尺寸为32×32。
[0044] ⑦、L1ConvLSTM层:输入尺寸为32×32,输入通道数为256,卷积核为3×3,输出尺寸为32×32,输出通道数为512。
[0045] ⑧、L2、L3两ConvLSTM层:输入尺寸为32×32,输入通道数为512,卷积核为3×3,输出尺寸为32×32,输出通道数为512。
[0046] ⑨、U1反卷积层:输入尺寸为32×32,输入通道数为512,卷积核为2×2,步长为2,边缘填充方式为‘same’,输出尺寸为64×64。
[0047] ⑩、将U1反卷积后的结果与对应尺寸的C6卷积的结果进行拼接,拼接维度为3。
[0048] C7、C8两卷积层:输入尺寸为64×64,输入通道数为512,卷积核为3×3,步长为1,边缘填充方式为‘valid’,激活函数为ReLU,输出尺寸为64×64,输出通道数为256。
[0049] U2反卷积层:输入尺寸为64×64,输入通道数为256,卷积核为2×2,步长为2,边缘填充方式为‘same’,输出尺寸为128×128。
[0050] 将U2反卷积后的结果与对应尺寸的C4卷积的结果进行拼接,拼接维度为3。
[0051] C9、C10两卷积层:输入尺寸为128×128,输入通道数为256,卷积核为3×3,步长为1,边缘填充方式为‘valid’,激活函数为ReLU,输出尺寸为128×128,输出通道数为128。
[0052] U3反卷积层:输入尺寸为128×128,输入通道数为128,卷积核为2×2,步长为2,边缘填充方式为‘same’,输出尺寸为256×256。
[0053] 将U3反卷积后的结果与对应尺寸的C2卷积的结果进行拼接,拼接维度为3。
[0054] C11、C12两卷积层:输入尺寸为256×256,输入通道数为128,卷积核为3×3,步长为1,边缘填充方式为‘valid’,激活函数为ReLU,输出尺寸为256×256,输出通道数为64。
[0055] 输出层:输入尺寸为256×256,输入通道数为64,卷积核为3×3,步长为1,边缘填充方式为‘same’,激活方式为线性激活,输出尺寸为256×256,输出通道数为64。
[0056] 3、基于ST-Unet的视频异常检测算法
[0057] 1)、ST-Unet重构算法的训练过程
[0058] 如图3所示,本发明利用ST-Unet网络实现基于重构的视频异常检测算法具体训练过程如下:
[0059] ①、随机选取预处理后的连续四帧图像作为输入,并选取四帧中最后一帧图像所对应的原始帧图像作为真值(ground truth)。
[0060] ②、将四帧图像分别输入到ST-Unet网络中,四帧图像在网络中最后一次下采样部分结束后得到四个特征图,接着将这四个特征图作为网络中ConvLSTM部分的输入,之后得到包括之前四帧信息的一个特征图,对该特征图进行网络中全部反卷积操作,得到最终的输出结果-重构图像。
[0061] ③、比较重构图像与原始真值图像(ground truth)之间的差异。本发明采用灰度损失函数(intensity_loss)、梯度损失函数(gradient_loss)来比较重构图像与原值真值图像之间的差异,并在训练过程中通过最小化全局损失函数值(global_loss)对网络参数进行调整。具体计算公式如下:
[0062]
[0063]
[0064] global_loss=Lint*intensity_loss+Lgra*gradient_loss   (3)
[0065] 公式(1)(2)中,I*为重构得到的图像,I为原始真值图像。
[0066] 公式(2)中,i,j分别为空间上水平与垂直方向索引。
[0067] 公式(3)中,Lint、Lgra分别为intensity_loss和gradient_loss在全局损失函数(global_loss)中所占权重。本发明取Lint=2、Lgra=1。
[0068] ④、为进一步优化网络参数,引入判别模型。将重构图像与原始真值图像输入到同一判别模型中,由判别模型进行特征提取并判断其输入为重构图像还是原始真值图像。将判别模型与ST-Unet重构模型一同训练,目的是使判别模型无法分辨ST-Unet重构得到的图像与原始真值图像,从而进一步提高ST-Unet重构算法的准确性。
[0069] 判别模型由四层卷积层以及一输出层组成,其训练过程损失函数计算公式如下:
[0070]
[0071] 公式(4)中,i,j为空间方向索引,D(I)为判别网络输出,Lmes为均方误差,定义如下:
[0072] Lmes(Y*,Y)=(Y*-Y)2   (5)
[0073] 2)、ST-Unet预测算法的训练过程
[0074] 如图4所示,本发明利用ST-Unet网络实现基于预测的视频异常检测算法具体训练过程如下:
[0075] ①、不同于重构算法,预测算法中需随机选取预处理后的连续五帧图像,前连续的四帧图像作为输入,并最后一帧图像所对应的原始帧图像作为真值(ground truth)。
[0076] ②、余下训练过程同重构训练算法1)中的步骤②③④。
[0077] 3)、基于ST-Unet异常检测算法的测试过程
[0078] 如图5所示,本发明利用ST-Unet网络实现基于重构和预测的视频异常检测算法具体测试过程如下:
[0079] ①、将测试集中的长视频切分成单一的视频帧图像。
[0080] ②、对于测试帧It,将It帧与之前的连续三帧(It-1、It-2、It-3)合并成四帧图像输入到训练好的ST-Unet重构网络中,得到重构图像 将重构图像 与输入的原始真值It进行比较,得到两图像之间的重构峰值信噪比(psnrs_res),并由重构峰值信噪比计算得到该视频帧的重构异常分数值(scores_res)。
[0081] 峰值信噪比(psnrs)与异常分数值(scores)的具体计算公式如下:
[0082]
[0083]
[0084] 公式(7)中,It为输入的第t帧图像, 为重构的第t帧图像。
[0085] ③、对于测试帧It,将It帧与It-1、It-2、It-3三帧以及It+1合并为连续的五帧输入到训练好的ST-Unet预测网络中,得到预测的未来帧 将预测的未来帧图像 与输入的原始真值It+1进行比较,得到两图像之间的预测峰值信噪比(psnrs_pre),并由预测峰值信噪比计算得到该视频帧的预测异常分数值(scores_pre),具体计算如公式(6)(7)。
[0086] ④、为进一步提高异常检测的准确率,本发明将重构算法结果与预测算法结果进行联合判别,取重构异常分数值和预测异常分数值加权作为最终的异常分数(anomal_scores),具体计算公式如下:
[0087] anomal_scores=Lpre*scores_pre+Lres*scores_res   (8)
[0088] 公式(8)中,Lpre、Lres为预测异常分数和重构异常分数的加权值。本发明取Lpre=0.5、Lres=0.5。
[0089] ⑤、求得测试帧It的异常分数(anomal_scores)后,将该值与设置的阈值(threshold)进行比较。若anomal_scores≥threshold,测试帧It为异常视频帧。anomal_scores<threshold,测试帧It为正常视频帧。本发明取threshold=0.679
[0090] ⑥、对所有切分好的单一视频帧重复步骤②③④⑤,将测试视频中所有的异常帧检测出来,实现视频异常检测。