一种基于部件量子学习的行人再辨识方法转让专利

申请号 : CN202311779478.4

文献号 : CN117456561B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 余文欣黄诚惕朱建清许恒范慧玲郭圣涛芦璇翟宇豪曾焕强陈婧蔡灿辉

申请人 : 华侨大学

摘要 :

本发明公开一种基于部件量子学习的行人再辨识方法,涉及量子计算、人工智能领域,包括:用深度神经网络从行人图像中提取特征映射,并用自适应空间平均池化把特征映射分解为多个部件特征;用多分支通道型量子卷积网络,每个分支对应从一个部件特征上进行量子学习,获得部件量子特征;把所有部件量子特征求和并输入通道型量子卷积网络进行部件量子特征融合,获得最终的行人特征向量,用于行人再辨识。本发明利用量子叠加与纠缠特性实现行人特征学习,能提高特征学习效果,进而提升行人再辨识的准确率。

权利要求 :

1.一种基于部件量子学习的行人再辨识方法,其特征在于,包括三个步骤:部件特征学习步骤:利用深度神经网络从行人图像提取特征映射,对该特征映射进行自适应空间平均池化获得多个部件特征;

部件量子特征学习步骤:使用多分支通道型量子卷积网络,其中每个分支对应从一个部件特征上进行量子学习,获得部件量子特征;

部件量子特征融合步骤:将所有部件量子特征求和并输入通道型量子卷积网络进行部件量子特征融合,获得最终的行人特征向量,用于行人再辨识;

所述部件量子特征学习步骤中,多分支通道型量子卷积网络的分支数量与所述部件特征学习步骤中获得部件特征的数量相等,且每个分支采用相同结构,都由通道型量子卷积实现,每个分支对应学习一个部件特征,过程如下:Fi,j=CQNNi,j(Gi,j),i=0,1,2…,n‑1,j=0,1,2,…,m‑1;

其中,CQNNi,j表示部件特征Gi,j对应的通道型量子卷积网络分支; 表示部件特征Gi,j由分支CQNNi,j通过量子学习获得的部件量子特征;i表示垂直方向的部件序号,j表示水平方向的部件序号;

通道型量子卷积网络中通道型量子卷积核对输入的部件特征沿通道方向滑动,逐个确定部件特征分段,并对部件特征分段进行量子学习获得分段对应的输出值,过程表示如下:t=0,1,2,...,c‑1;

其中, 表示部件特征Gi,j的第t个部件特征分段,d表示分段长度;QL表示对第t个部件特征分段的量子学习过程; 表示第t个部件特征分段经量子学习后的输出值;Cat表示串联操作;c表示部件特征Gi,j的通道数量;

所述对部件特征分段进行量子学习的过程如下:

量子编码:将特征分段进行量子态编码,如下所示:

其中, 表示编码后的量子直积态; 表示该部件特征分段的第l个数据;

Encoding表示编码操作,它先使用Tanh函数将 映射到[‑1,1]区间再进行cos‑sin量子特征映射获得 的编码 它是一个量子直积态; 表示d个量子态的直积运算;|0>和|1>分别表示量子比特的两种基态,即量子比特可能存在的状态;

量子线路运算:将编码量子态输入量子线路进行量子学习,并加以测量获得输出向量,公式如下:其中, 是 经过K个量子线路模块后输出的量子末态; 是 的复共轭转置,即 表示在直积态的各位置分别施加Pauli‑Z门,即对末态的d个量子比特k k k k k k

位进行测量;QCk(α,β ,γ)表示第k个量子线路模块且其参数为α,β ,γ; 表示K个量子线路模块级联组合; 是经量子线路运算获得的输出向量;进一步地,每个量子线路模块k k kQCk(α,β ,γ)的结构包含三层:第一层在量子比特偶数位施加d/2个y方向的单体旋转门,参数为 在量子比特奇数位施加d/2个z方向的单体旋转门,参数为 第二层使用CNOT门实现量子态循环纠缠;第三层对d个量子比

特位施加x方向的单体旋转门,参数为

量子解码:将量子线路运算输出向量解码为标量输出,公式如下:

其中, 是输出向量 上的第l个数据;Decoding表示解码操作,它求 的模长作为解码结果

2.根据权利要求1所述的基于部件量子学习的行人再辨识方法,其特征在于,所述部件特征学习步骤计算过程如下:H=DeepNet(X)

其中,X表示输入行人图像,DeepNet表示深度神经网络; 为输入行人图像X经由深度神经网络DeepNet提取的特征映射,h表示特征映射H的高度,w表示特征映射H的宽度,c表示特征映射H的通道数量;ASAP表示自适应空间平均池化,它对H在垂直方向进行n等分,在水平方向进行m等分,获得n×m个子特征映射Hi,j;对子特征映射Hi,j进行平均池化获得部件特征 G表示部件特征集合;i表示垂直方向的部件序号,j表示水平方向的部件序号; 表示实数空间;p表示子特征映射内垂直方向数值序号;q表示子特征映射内水平方向数值序号。

3.根据权利要求1所述的基于部件量子学习的行人再辨识方法,其特征在于,所述部件量子特征融合步骤,计算过程如下:其中, 表示最终的行人特征向量;CQNN表示通道型量子卷积计算,其过程与所述多分支通道型量子卷积网络中通道型量子卷积层计算过程相同;Sum表示求和操作。

4.根据权利要求1所述的基于部件量子学习的行人再辨识方法,其特征在于,利用交叉熵损失函数对最终的行人特征向量进行约束,公式如下:其中,LCE表示交叉熵损失函数;D表示行人类别数量;y表示最终的行人特征向量F对应的类别;l表示指示函数,当其括号内的条件为真,l取1,否则l取0;Wb表示将F投影为第b个类别的权重参数,Wy表示将F投影为第y个类别的权重参数,T为转置运算;a和b表示类别序号;e表示自然常数。

说明书 :

一种基于部件量子学习的行人再辨识方法

技术领域

[0001] 本发明涉及量子计算、人工智能领域,特别涉及一种基于部件量子学习的行人再辨识方法。

背景技术

[0002] 行人再辨识用于从海量行人图像中检索出感兴趣的行人图像,对智慧安防、智慧交通等具有重要应用。现有的行人再辨识方法多数采用深度学习模型,通过卷积运算的巨量堆叠,实现图像鉴别性特征学习,取得很大的进展。但是,作为深度学习模型的核心——卷积运算,具有感受野受限的缺点,限制了对图像的特征学习能力。尽管可以通过如扩张卷积(Dilated Convolution)增加感受野以及注意力机制(Attention Mechanisms)来增强深度学习模型的特征学习能力,但是这些方法依然属于深度学习方法,并没有跳出深度学习的桎梏。

发明内容

[0003] 本发明所针对的技术问题,在于提供一种基于部件量子学习的行人再辨识方法,结合深度学习和量子学习的量子叠加与纠缠特性,提高特征学习效果,提升行人再辨识的准确率。
[0004] 本发明提出的技术方案如下:
[0005] 步骤1、部件特征学习步骤:利用深度神经网络从行人图像提取的特征映射,对该特征映射进行自适应空间平均池化获得多个部件特征;
[0006] 步骤2、部件量子特征学习步骤:用多分支通道型量子卷积网络,每个分支对应从一个部件特征上进行量子学习,获得部件量子特征;
[0007] 步骤3、部件量子特征融合步骤:把所有部件量子特征求和并输入通道型量子卷积网络进行部件量子特征融合,获得最终的行人特征向量,用于行人再辨识。
[0008] 所述部件特征学习步骤计算过程如下:
[0009]
[0010] 其中, 表示输入行人图像,DeepNet表示深度神经网络; 为输入行人图像 经由深度神经网络DeepNet提取的特征映射,h表示特征映射H的高度,w表示特征映射H的宽度,c表示特征映射H的通道数量;ASAP表示自适应空间平均池化,它对H在垂直方向进行n等分,在水平方向进行m等分,获得 个子特征映射 ;对子特征映射 进行平均池化获得部件特征 ,G表示部件特征集合;i表示垂直方向的部件序号,j表示水平方向的部件序号; 表示实数空间; 表示子特征映射内垂直方向数值序号;表示子特征映射内水平方向数值序号。
[0011] 所述部件量子特征学习步骤中多分支通道型量子卷积网络的分支数量与所述部件特征学习步骤中获得部件特征的数量相等,且每个分支采用相同结构,都由通道型量子卷积实现,每个分支对应学习一个部件特征,过程如下:
[0012]
[0013] 其中, 表示部件特征 对应的通道型量子卷积网络分支; 表示部件特征 由分支 通过量子学习获得的部件量子特征;i表示垂直方向的部件序号,j表示水平方向的部件序号。
[0014] 所述通道型量子卷积网络中通道型量子卷积核对输入的部件特征沿通道方向滑动,逐个确定部件特征分段,并对部件特征分段进行量子学习获得分段对应的输出值,过程表示如下:
[0015]
[0016] 其中, 表示部件特征 的第t个部件特征分段,d表示分段长度;QL表示对第t个部件特征分段的量子学习过程; 表示第t个部件特征分段经量子学习后的输出值;Cat表示串联操作;c表示部件特征 的通道数量。
[0017] 所述对部件特征分段进行量子学习的过程如下:
[0018]  5.1、量子编码:将特征分段进行量子态编码,如下所示:
[0019]
[0020] 其中, 表示编码后的量子直积态; 表示该部件特征分段的第l个数据;Encoding表示编码操作,它先使用Tanh函数将 映射到[‑1,1]区间再进行cos‑sin量子特征映射获得 的编码 ,它是一个量子直积态; 表示d个量子态的直积运算; 和分别表示量子比特的两种基态,即量子比特可能存在的状态;
[0021] 5.2、量子线路运算:将编码量子态输入量子线路进行量子学习,并加以测量获得输出向量,公式如下:
[0022]
[0023] 其中, 是 经过K个量子线路模块后输出的量子末态;  是 的复共轭转置,即 ; 表示在直积态的各位置分别施加Pauli‑Z门,即对
末态的d个量子比特位进行测量; 表示第k个量子线路模块且其参数为
; 表示K个量子线路模块级联组合; 是经量子线路运算获得的输出向
量;进一步地,每个量子线路模块 的结构包含三层:第一层在量子比特偶数位施加 个y方向的单体旋转门,参数为 ,在量子
比特奇数位施加 个z方向的单体旋转门,参数为 ;第
二层使用CNOT门实现量子态循环纠缠;第三层对d个量子比特位施加x方向的单体旋转门,参数为 ;
[0024] 5.3、量子解码:将量子线路运算输出向量解码为标量输出,公式如下:
[0025]
[0026] 其中,  是输出向量 上的第l个数据;Decoding表示解码操作,它求的模长作为解码结果 。
[0027] 所述部件量子特征融合步骤,计算过程如下:
[0028]
[0029] 其中, 表示最终的行人特征向量;CQNN表示通道型量子卷积计算,其过程与所述多分支通道型量子卷积网络中通道型量子卷积层计算过程相同;Sum表示求和操作。
[0030] 最后,利用交叉熵损失函数对最终的行人特征进行约束,公式如下:
[0031]
[0032] 其中, 表示交叉熵损失函数;D表示行人类别数量;y表示最终的行人特征向量F对应的类别;l表示指示函数,当其括号内的条件为真,l取1,否则l取0; 表示将F投影为第b个类别的权重参数, 表示将F投影为第y个类别的权重参数,T为转置运算;a和b表示类别序号;e表示自然常数。
[0033] 与现有技术相比,本发明的有益效果如下:
[0034] 本发明用自适应空间平均池化把深度学习获得特征映射分解为多个部件特征,用多分支通道型量子卷积网络从部件特征中学习部件量子特征,把所有部件量子特征求和并输入通道型量子卷积网络进行部件量子特征融合,获得最终的行人特征向量。由于本发明结合深度学习和量子学习的量子叠加与纠缠特性,能够改善特征学习效果,从而提升行人再辨识的准确率,对智慧安防、智慧交通等具有重要应用。
[0035] 为了更加清晰地了解本发明的技术方案并展示本发明的目标、特点和优势,可以根据说明书的内容进行实际操作,下面详细介绍本发明的具体实施方式。

附图说明

[0036] 图1为本发明中一种基于部件量子学习的行人再辨识方法示意图;
[0037] 图2为本发明中通道型量子卷积层的量子学习过程;
[0038] 图3为本发明实例提供的一种基于部件量子学习的行人再辨识方法实施示意图。

具体实施方式

[0039] 参见图1至图3所示,本实施例中,一种基于部件量子学习的行人再辨识方法,其具体实施方法如下。
[0040] 1)训练阶段:
[0041] 1.1、获取行人训练集图像,每个图像都带有身份类别标签。
[0042] 1.2、部件特征学习步骤:利用深度神经网络从行人图像提取的特征映射,对该特征映射进行自适应空间平均池化获得多个部件特征。过程如下:
[0043]
[0044] 其中, 表示输入行人图像,DeepNet表示深度神经网络; 为输入行人图像 经由深度神经网络DeepNet提取的特征映射,h表示特征映射H的高度,w表示特征映射H的宽度,c表示特征映射H的通道数量;ASAP表示自适应空间平均池化,它对H在垂直方向进行n等分,在水平方向进行m等分,获得 个子特征映射 ;对子特征映射 进行平均池化获得部件特征 ,G表示部件特征集合;i表示垂直方向的部件序号,j表示水平方向的部件序号; 表示实数空间; 表示子特征映射内垂直方向数值序号;表示子特征映射内水平方向数值序号。
[0045] 具体地,如说明附图3所示,所述深度神经网络使用ResNet50残差卷积网络构建,即采用ResNet50网络的茎部Stem和两个残差块层Layer1、Layer2组成。
[0046] 1.3、部件量子特征学习步骤:用多分支通道型量子卷积网络,每个分支对应从一个部件特征上进行量子学习,获得部件量子特征。过程如下:
[0047] 所述部件量子特征学习步骤中多分支通道型量子卷积网络的分支数量与所述部件特征学习步骤中获得部件特征的数量相等,且每个分支采用相同结构,由通道型量子卷积实现,每个分支对应学习一个部件特征,过程如下:
[0048]
[0049] 其中, 表示部件特征 对应的通道型量子卷积网络分支; 表示部件特征 由分支 通过量子学习获得的部件量子特征;i表示垂直方向的部件序号,j表示水平方向的部件序号。
[0050] 所述通道型量子卷积网络中通道型量子卷积核对输入的部件特征沿通道方向滑动,逐个确定部件特征分段,并对部件特征分段进行量子学习获得分段对应的输出值,过程表示如下:
[0051]
[0052] 其中, 表示第i,j个部件特征 的第t个部件特征分段,d表示分段长度;QL表示对第t个部件特征分段的量子学习过程; 表示第t个部件特征分段经量子学习后的输出值;Cat表示串联操作;c表示部件特征 的通道数量。
[0053] 所述对部件特征分段进行量子学习的过程如下:
[0054] 首先,将特征分段进行量子态编码,如下所示:
[0055]
[0056] 其中, 表示编码后的量子直积态; 表示该部件特征分段的第l个数据;Encoding表示编码操作,它先使用Tanh函数将 映射到[‑1,1]区间再进行cos‑sin量子特征映射获得 的编码 ,它是一个量子直积态; 表示d个量子态的直积运算;和 分别表示量子比特的两种基态,即量子比特可能存在的状态;
[0057] 其次,将编码量子态输入量子线路进行量子学习,并加以测量获得输出向量,公式如下:
[0058]
[0059] 其中, 是 经过K个量子线路模块后输出的量子末态;  是的复共轭转置,即 ; 表示在直积态的各位置分别施加Pauli‑Z门,即
对末态的d个量子比特位进行测量; 表示第k个量子线路模块且其参数为; 表示K个量子线路模块级联组合; 是经量子线路运算获得的输出向量;
进一步地,每个量子线路模块 的结构包含三层:第一层在量子比特偶数位施加 个y方向的单体旋转门,参数为 ,在量子比
特奇数位施加 个z方向的单体旋转门,参数为 ;第
二层使用CNOT门实现量子态循环纠缠;第三层对d个量子比特位施加x方向的单体旋转门,参数为 ;
[0060] 最后,将量子线路运算输出向量解码为标量输出,公式如下:
[0061]
[0062] 其中,  是输出向量 上的第l个数据;Decoding表示解码操作,它求的模长作为解码结果 。
[0063] 1.4、部件量子特征融合步骤:把所有部件量子特征求和并输入通道型量子卷积网络进行部件量子特征融合,获得最终的行人特征向量,用于行人再辨识。过程如下:
[0064] 其中, 表示最终的行人特征向量;CQNN表示通道型量子卷积计算,其过程与所述多分支通道型量子卷积网络中通道型量子卷积层计算过程相同;Sum表示求和操作。
[0065] 1.5、设计交叉熵损失函数对最终的行人特征向量进行约束,公式如下:
[0066] 其中, 表示交叉熵损失函数;D表示行人类别数量;y表示最终的行人特征向量F对应的类别;l表示指示函数,当其括号内的条件为真,l取1,否则l取0; 表示将F投影为第b个类别的权重参数, 表示将F投影为第y个类别的权重参数,T为转置运算;a和b表示类别序号;e表示自然常数。
[0067] 1.6、采用梯度下降算法最小化上述损失函数以训练网络,得到基于部件量子学习的行人再辨识网络模型。
[0068] 2)测试阶段:
[0069] 使用训练阶段获得的行人再辨识网络模型,将查询图像集和注册图像集输入网络模型进行特征提取,即附图3中部件量子特征融合步骤的输出作为特征(即CQNN的输出数据),得到查询图像特征和注册图像特征。基于得到的特征,依次计算查询图像特征与各注册图像特征之间的距离,将距离升序排序,排名靠前的注册图像的身份类别标签即为行人再辨识的结果。
[0070] 本发明用自适应空间平均池化把深度学习获得特征映射分解为多个部件特征,用多分支通道型量子卷积网络从部件特征中学习部件量子特征,把所有部件量子特征求和并输入通道型量子卷积网络进行部件量子特征融合,获得最终的行人特征向量。由于本发明结合深度学习和量子学习的量子叠加与纠缠特性,能够改善特征学习效果,从而提升行人再辨识的准确率,对智慧安防、智慧交通等具有重要应用。
[0071] 虽然上述过程描述了本发明的具体实施方式,但是熟悉本技术领域的相关人员应理解,上述实施例仅为说明性描述,不限定本发明的范围。熟悉本领域的技术人员在依照本发明的精神所作的等效的修饰以及变化,都应当涵盖在本发明的权利要求所保护的范围内。