一种红外与可见光图像文本描述生成方法转让专利

申请号 : CN202110501891.9

文献号 : CN113343966B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 黄珺马泳马佳义樊凡王旭张灿

申请人 : 武汉大学

摘要 :

本发明公开了一种红外与可见光图像文本描述生成方法,包括以下步骤:1)采集n对分辨率大小和场景相同的红外与可见光图像,构建成数据集,对数据集中的每个样本进行人工文本描述,生成多条不同的描述文本;2),构建红外与可见光图像文本描述生成网络,包括红外与可见光图像特征提取的编码模型、由前馈神经网络构成的特征融合模型,以及加性多头注意力机制的图像特征解码模型;3)训练文本描述生成网络;4)将测试图像对输入到训练好的文本描述生成网络,输出其对应的描述文本。本发明方法可有效利用红外图像和可见光图像提供的互补视觉特征,弥补了传统单光算法遗漏关键目标实体和场景描述不充分的不足。

权利要求 :

1.一种红外与可见光图像文本描述生成方法,其特征在于,包括如下步骤:步骤1,建立数据集,采集n对分辨率大小为H×W、场景相同的红外与可见光图像,构建成数据集,对数据集中的每个样本进行人工文本描述,生成多条不同的描述文本,所述描述文本由多个词组成,将所有描述文本中的词组成一个集合,这个集合称为“字典”;

步骤2,构建红外与可见光图像文本描述生成网络,包括以下子步骤:步骤2.1,多源图像场景特征提取:建立红外与可见光图像特征提取的编码模型,用于提取数据集中每一对红外与可见光图像样本的深层语义特征vIR和vVIS;

步骤2.2,场景特征信息融合:建立前馈神经网络构成的特征融合模型,用以融合红外与可见光图像包含的多源场景信息,获得融合语义特征vF;

步骤2.3,建立加性多头注意力机制的图像特征解码模型,对融合语义特征vF进行处理,用于输出描述文本;

步骤2.3的具体实现包含如下子步骤:步骤2.3.1,对融合语义特征vF进行均值池化,将每个通道的空间分辨率d×d降为1×1,得到均值vj;

步骤2.3.2,加性多头注意力机制解码模型通过迭代的方式完成,记h和c为解码模型在D D

迭代过程中的隐状态,h∈R ,c∈R ,D为解码模型的特征维度,在迭代时间步为t时,解码模型的隐状态为ht‑1和ct‑1;

当迭代时间步t=0时,解码模型的初始隐状态为h‑1和c‑1,起始标记词w0为,h‑1由投影矩阵Wh、偏置向量bh对vj变换得到;c‑1由投影矩阵Wc、偏置向量bc对vj变换得到,h‑1和c‑1的计算公式如下:

h‑1=Wh·vj+bh

c‑1=Wc·vj+bc

L×D L×D D D

其中,Wh∈R ,Wc∈R ,bh∈R,bc∈R为训练参数,L为特征的通道数;

步骤2.3.3,通过解码模型在迭代时间步t的隐状态ht‑1和融合语义特征vF,进行加性多头注意力机制计算;加性多头注意力机制的计算过程包含如下子步骤:步骤2.3.3.1:加性多头注意力机制中第i个头的权重αi的计算公式如下:q k

αi=softmax(ReLU(Wi·ht‑1+Wi·vF))其中 和 为投影矩阵,Ln为加性多头注意力特征维度与头数量的商;

步骤2.3.3.2:加性多头注意力机制中的第i个头headi的加权计算公式如下:其中 为vF的转置矩阵;

步骤2.3.3.3:将多头head1,head2,...,headn的加权计算结果沿通道拼接后,经过投影A

矩阵WD变换得到加权图像特征向量vt,其计算公式如下:A

vt=[head1,head2,...,headn]·WD其中 为训练参数,LA为加性多头注意力机制的特征维度;

步骤2.3.4,解码模型采用融合加性多头注意力机制的LSTM进行迭代计算,其迭代计算公式如下:

A

ht,ct=LSTM([We·wt,vt],ht‑1,ct‑1)其中,We为词嵌入矩阵, LE为词嵌入维度,SD为字典中词的数量,wt为迭代时间步t的输入单词,

步骤2.3.5,通过全连接层FC和softmax归一化后,解码模型输出字典中候选概率值最大的单词 其计算公式如下:

判断 是否为结束标记,如果不是,输出 并将其作为步骤2.3.4中迭代时间步t+1的输入单词wt+1继续迭代;否则结束迭代过程;

步骤3,利用步骤1中的数据集及对应的描述文本训练步骤2中构建的文本描述生成网络;

步骤4,将测试图像对输入到训练好的文本描述生成网络,输出其对应的描述文本。

2.如权利要求1所述的一种红外与可见光图像文本描述生成方法,其特征在于:步骤1的具体实现包括如下子步骤:

步骤1.1,采集n对分辨率大小为H×W、场景相同的红外与可见光图像,构建成数据集SData,所述数据集包含红外图像集合 与可见光图像集合两部分, 与 是数据集中的样本对,对应相同场景的红外与可见光图像;

步骤1.2:对所述数据集中的每个样本对 与 进行人工文本描述,生成a条不同的描述文本,a为自然数。

3.如权利要求1所述的一种红外与可见光图像文本描述生成方法,其特征在于:步骤

2.1的具体实现包括如下子步骤:步骤2.1.1,建立红外与可见光图像描述生成网络的编码模型,用于提取图像特征映射,编码模型可表示为如下计算公式:其中IIR和IVIS分别表示所述编码模型输入的红外与可见光图像对,EResNet表示ResNet‑101网络剔除最后两层的剩余部分, 和 分别表示所述红外与可见光图像经过EResNet模型提取得到的红外与可见光图像特征映射;

步骤2.1.2,为了使编码模型能够适应不同尺寸的图像输入,添加自适应均值池化层对所述红外与可见光图像特征映射进行处理,得到图像的深层语义特征,其计算公式为:L×d×d L×d×d

其中,Pool表示自适应均值池化层,vIR∈R 和vVIS∈R 分别表示红外与可见光图像深层语义特征,L为特征的通道数,每个通道的空间分辨率为d×d。

4.如权利要求1所述的一种红外与可见光图像文本描述生成方法,其特征在于:步骤

2.2的具体实现包括如下子步骤:步骤2.2.1,建立连接层,对红外与可见光图像深层语义特征vIR和vVIS沿特征的通道进

2L×d×d

行拼接,得到联合深层语义特征vC∈R ,L为特征的通道数,每个通道的空间分辨率为d×d;

步骤2.2.2,建立线性层对所述联合深层语义特征进行处理,得到线性深层语义特征vL,

2L×d×d

vL∈R 的计算公式如下:

vL=W1·vC+b1

2L×2L 2L

其中,W1∈R ,b1∈R 为训练参数;

步骤2.2.3,建立激活层,对所述线性深层语义特征进行非线性化,使得vL具有非线性特征,其表达公式如下:

vA=ReLU(vL)

其中,vA表示非线性深层语义特征,ReLU为线性整流函数;

步骤2.2.4,建立线性层对所述非线性深层语义特征进行处理,得到融合语义特征vF:vF=W2·vA+b2

2L×L L

其中,W2∈R ,b2∈R为训练参数。

说明书 :

一种红外与可见光图像文本描述生成方法

技术领域

[0001] 本发明属于计算机视觉领域,具体涉及一种红外与可见光图像文本描述生成方法。

背景技术

[0002] 随着近年来人工智能领域中机器学习特别是深度学习技术的迅猛发展,计算机视觉作为一门研究如何更好地理解和分析图像的科学,在数据及算力的推动下也呈现出飞跃
式的进步。例如在图像分类任务中,运行深度学习算法的机器的对物体种类识别的准确率
已经超过人类;在目标检测与定位任务中,基于深度学习的算法已广泛应用于智能视频监
控,机器人导航和基于内容的图像检索等领域。
[0003] 图像描述生成任务的本质是完成场景信息从图像域到文本域的转换。目前图像描述生成领域中的研究都是围绕可见光图像展开的,然而单一光学谱段的成像设备可能在一
些环境下无法完整的获取场景信息。例如,当关注的目标或场景缺乏良好的光线照射或者
被遮挡时,普通的可见光相机将无法捕获到目标或相关场景的有用信息。尤其是在军事战
场环境中,重要设施目标常常需要通过伪装式遮挡以躲避侦察,以及军事计划可能借助夜
晚黑暗的保护开展行动。如果使用普通的可见光成像设备进行场景信息的采集,图像描述
生成算法后续就无法生成正确的描述语句。为了在极端成像条件下也能够获取全面的场景
信息,有必要结合使用工作在不同谱段的成像设备。例如在上述情景中,可以使用红外相机
与可见光相机同时对场景成像。其中红外相机通过捕捉物体发出的热辐射信息并根据其强
度大小进行成像,这样的特点使其具备全天候的工作能力而不受遮挡和光照条件变化的影
响。因此研究多源传感器在图像描述生成任务中的应用也具有非常重要的意义。

发明内容

[0004] 针对现有技术的不足,本发明提出一种红外与可见光图像文本描述生成方法。本方法建立了了一种联合红外可见光特征的双输入图像描述网络,能够有效地结合红外和可
见光两个谱段的视觉特征信息。
[0005] 本发明的技术方案包括以下步骤:
[0006] 步骤1,建立数据集,采集n对分辨率大小为H×W、场景相同的红外与可见光图像,构建成数据集,对数据集中的每个样本进行人工文本描述,生成多条不同的描述文本,所述
描述文本由多个词组成,将所有描述文本中的词组成一个集合,这个集合称为“字典”;
[0007] 步骤2,构建红外与可见光图像文本描述生成网络,包括以下子步骤:
[0008] 步骤2.1,多源图像场景特征提取:建立红外与可见光图像特征提取的编码模型,用于提取数据集中每一对红外与可见光图像样本的深层语义特征vIR和vVIS;
[0009] 步骤2.2,场景特征信息融合:建立前馈神经网络构成的特征融合模型,用以融合红外与可见光图像包含的多源场景信息,获得融合语义特征vF;
[0010] 步骤2.3,建立加性多头注意力机制的图像特征解码模型,对融合语义特征vF进行处理,用于输出描述文本;
[0011] 步骤3,利用步骤1中的数据集及对应的描述文本训练步骤2中构建的文本描述生成网络;
[0012] 步骤4,将测试图像对输入到训练好的文本描述生成网络,输出其对应的描述文本。
[0013] 进一步的,步骤1的具体实现包括如下子步骤:
[0014] 步骤1.1,采集n对分辨率大小为H×W、场景相同的红外与可见光图像,构建成数据集SData,所述数据集包含红外图像集合 与可见光图像集合
两部分, 与 是数据集中的样本对,对应相同场景的红外与可见光图像;
[0015] 步骤1.2:对所述数据集中的每个样本对 与 进行人工文本描述,生成a条不同的描述文本,a为自然数。
[0016] 进一步的,步骤2.1的具体实现包括如下子步骤:
[0017] 步骤2.1.1,建立红外与可见光图像描述生成网络的编码模型,用于提取图像特征映射,编码模型可表示为如下计算公式:
[0018]
[0019] 其中IIR和IVIS分别表示所述编码模型输入的红外与可见光图像对,EResNet表示ResNet‑101网络剔除最后两层的剩余部分, 和 分别表示所述红外与可见光图像经过
EResNet模型提取得到的红外与可见光图像特征映射;
[0020] 步骤2.1.2,为了使编码模型能够适应不同尺寸的图像输入,添加自适应均值池化层对所述红外与可见光图像特征映射进行处理,得到图像的深层语义特征,其计算公式为:
[0021]
[0022] 其中,Pool表示自适应均值池化层,vIR∈RL×d×d和vVIS∈RL×d×d分别表示红外与可见光图像深层语义特征,L为特征的通道数,每个通道的空间分辨率为d×d。
[0023] 进一步的,步骤2.2的具体实现包括如下子步骤:
[0024] 步骤2.2.1,建立连接层,对红外与可见光图像深层语义特征vIR和vVIS沿特征的通2L×d×d
道进行拼接,得到联合深层语义特征vC∈R ;
[0025] 步骤2.2.2,建立线性层对所述联合深层语义特征进行处理,得到线性深层语义特2L×d×d
征vL,vL∈R 的计算公式如下:
[0026] vL=W1·vC+b1
[0027] 其中,W1∈R2L×2L,b1∈R2L为训练参数;
[0028] 步骤2.2.3,建立激活层,对所述线性深层语义特征进行非线性化,使得vL具有非线性特征,其表达公式如下:
[0029] vA=ReLU(vL)
[0030] 其中,vA表示非线性深层语义特征,ReLU为线性整流函数;
[0031] 步骤2.2.4,建立线性层对所述非线性深层语义特征进行处理,得到融合语义特征vF:
[0032] vF=W2·vA+b2
[0033] 其中,W2∈R2L×L,b2∈RL为训练参数。
[0034] 进一步的,步骤2.3的具体实现包含如下子步骤:
[0035] 步骤2.3.1,对融合语义特征vF进行均值池化,将每个通道的空间分辨率d×d降为1×1,得到均值vj;
[0036] 步骤2.3.2,加性多头注意力机制解码模型通过迭代的方式完成,记h和c为解码模D D
型在迭代过程中的隐状态,h∈R ,c∈R ,D为解码模型的特征维度,在迭代时间步为t时,解
码模型的隐状态为ht‑1和ct‑1;
[0037] 当迭代时间步t=0时,解码模型的初始隐状态为h‑1和c‑1,起始标记词w0为,h‑1由投影矩阵Wh、偏置向量bh对vj变换得到;c‑1由投影矩阵Wc、偏置向量bc对vj变换得到,
h‑1和c‑1的计算公式如下:
[0038] h‑1=Wh·vj+bh
[0039] c‑1=Wc·vj+bc
[0040] 其中,Wh∈RL×D,Wc∈RL×D,bh∈RD,bc∈RD为训练参数;
[0041] 步骤2.3.3,通过解码模型在迭代时间步t的隐状态ht‑1和融合语义特征vF,进行加性多头注意力机制计算;加性多头注意力机制的计算过程包含如下子步骤:
[0042] 步骤2.3.3.1:加性多头注意力机制中第i个头的权重αi的计算公式如下:
[0043] αi=softmax(ReLU(Wiq·ht‑1+Wik·vF))
[0044] 其中 和 为投影矩阵,Ln为加性多头注意力特征维度与头数量的商;
[0045] 步骤2.3.3.2:加性多头注意力机制中的第i个头headi的加权计算公式如下:
[0046]
[0047] 其中 为vF的转置矩阵;
[0048] 步骤2.3.3.3:将多头head1,head2,...,headn的加权计算结果沿通道拼接后,经过A
投影矩阵WD变换得到加权图像特征向量vt,其计算公式如下:
[0049] vtA=[head1,head2,...,headn]·WD
[0050] 其中 为训练参数,LA为加性多头注意力机制的特征维度;
[0051] 步骤2.3.4,解码模型采用融合加性多头注意力机制的LSTM进行迭代计算,其迭代计算公式如下:
[0052] ht,ct=LSTM([We·wt,vtA],ht‑1,ct‑1)
[0053] 其中,We为词嵌入矩阵, LE为词嵌入维度,SD为字典中词的数量,wt为迭代时间步t的输入单词,
[0054] 步骤2.3.5,通过全连接层FC和softmax归一化后,解码模型输出字典中候选概率值最大的单词 其计算公式如下:
[0055]
[0056] 判断 是否为结束标记,如果不是,输出 并将其作为步骤2.3.4中迭代时间步t+1的输入单词wt+1继续迭代;否则结束迭代过程。
[0057] 本发明与现有技术相比具有以下优点和有益效果:
[0058] (1)本发明设计了一种加性多头注意力机制,通过划分多个抽头的方式在不同特征子空间计算注意力权重,能够使网络模型学习通道维度下的不同的注意力权重分布模
式,弥补了传统算法遗漏关键目标实体和场景描述不充分的不足。
[0059] (2)本发明设计了一种联合红外可见光特征的双输入图像描述网络,网络中设计的特征融合模型能够有效地结合红外和可见光两个谱段的视觉特征信息,在极端不利成像
条件下单一谱段成像手段无法获取完整场景信息时,可以有效利用红外图像和可见光图像
提供的互补视觉特征,生成符合场景语义的描述语句。

附图说明

[0060] 图1为本发明的总体流程图;
[0061] 图2为解码模型结构;
[0062] 图3为特征融合模型结构;
[0063] 图4为加性多头注意力机制网络流程图;
[0064] 图5为目标图像1和生成文本;
[0065] 图6为目标图像2和生成文本。

具体实施方式

[0066] 下面结合附图和实施例对本发明的技术方案作进一步说明。
[0067] 为了更清楚的阐述本发明的目的、技术方案和有益效果,下面结合附图和实施例进一步说明。应当理解,本发明不应限于实施例公开的内容,本发明要求保护的范围以权利
要求书界定的范围为准。
[0068] 技术问题:本发明设计了一种红外与可见光图像文本描述生成方法,可有效利用红外图像和可见光图像提供的互补视觉特征,弥补了传统单光算法遗漏关键目标实体和场
景描述不充分的不足。
[0069] 本发明的技术方案包括以下步骤:
[0070] 步骤1:建立数据集:采集n对分辨率大小为H×W、场景相同的红外与可见光图像,构建成数据集,对数据集中的每个样本进行人工文本描述,生成多条不同的描述文本,所述
描述文本由多个词组成,将所有描述文本中的词组成一个集合,这个集合我们称为“字典”。
[0071] 进一步的,步骤1的具体实现包括如下子步骤:
[0072] 步骤1.1:采集n对分辨率大小为H×W、场景相同的红外与可见光图像,构建成数据集SData,所述数据集包含红外图像集合 与可见光图像集合
两部分, 与 是数据集中的样本对,对应相同场景的红外与可见
光图像。
[0073] 步骤1.2:对所述数据集中的每个样本对 与 进行人工文本描述,生成a条不同的描述文本,a为自然数。
[0074] 步骤2,构建红外与可见光图像文本描述生成网络,包括以下子步骤:
[0075] 步骤2.1:多源图像场景特征提取:建立红外与可见光图像特征提取的编码模型,用于提取数据集中每一对红外与可见光图像样本的特征信息;
[0076] 进一步的,步骤2.1的具体实现包括如下子步骤:
[0077] 步骤2.1.1:建立红外与可见光图像描述生成网络的编码模型,用于提取图像特征映射,模型可表示为如下计算公式:
[0078]
[0079] 其中IIR和IVIS分别表示所述编码模型输入的红外与可见光图像对,EResNet表示ResNet‑101网络剔除最后两层的剩余部分, 和 分别表示所述红外与可见光图像经过
EResNet模型提取得到的红外与可见光图像特征映射;
[0080] 步骤2.1.2:为了使编码模型能够适应不同尺寸的图像输入,添加自适应均值池化层对所述红外与可见光图像特征映射进行处理,得到图像的深层语义特征,其计算公式为:
[0081]
[0082] 其中,Pool表示自适应均值池化层,vIR∈RL×d×d和vVIS∈RL×d×d分别表示红外与可见光图像深层语义特征,L为特征的通道数,每个通道的空间分辨率为d×d。
[0083] 步骤2.2:场景特征信息融合:建立前馈神经网络构成的特征融合模型,用以融合红外与可见光图像包含的多源场景信息;
[0084] 进一步的,步骤2.2的具体实现包括如下子步骤:
[0085] 步骤2.2.1:建立连接层,对所述红外与可见光图像深层语义特征vIR和vVIS沿特征2L×d×d
的通道进行拼接,得到联合深层语义特征vC∈R ;
[0086] 步骤2.2.2:建立线性层对所述联合深层语义特征进行处理,得到线性深层语义特2L×d×d
征vL,vL∈R 的计算公式如下:
[0087] vL=W1·vC+b1
[0088] 其中,W1∈R2L×2L,b1∈R2L为训练参数。
[0089] 步骤2.2.3:建立激活层,对所述线性深层语义特征进行非线性化,使得vL具有非线性特征,其表达公式如下:
[0090] vA=ReLU(vL)
[0091] 其中,vA表示非线性深层语义特征,ReLU为线性整流函数。
[0092] 步骤2.2.4:建立线性层对所述非线性深层语义特征进行处理,得到融合语义特征vF:
[0093] vF=W2·vA+b2
[0094] 其中,W2∈R2L×L,b2∈RL为训练参数。
[0095] 步骤2.3:建立加性多头注意力机制的图像特征解码模型,用于输出描述文本;
[0096] 进一步的,步骤2.3的具体实现包含如下子步骤:
[0097] 步骤2.3.1:对所述融合语义特征vF进行均值池化,将每个通道的空间分辨率d×d降为1×1,得到均值vj。
[0098] 步骤2.3.2:加性多头注意力机制解码模型通过迭代的方式完成,记h和c为解码模D D
型在迭代过程中的隐状态,h∈R ,c∈R ,D为解码模型的特征维度。在迭代时间步为t时,解
码模型的隐状态为ht‑1和ct‑1。
[0099] 当迭代时间步t=0时,解码模型的初始隐状态为h‑1和c‑1,起始标记词w0为。h‑1由投影矩阵Wh、偏置向量bh对vj变换得到;c‑1由投影矩阵Wc、偏置向量bc对vj变换得到。
h‑1和c‑1的计算公式如下:
[0100] h‑1=Wh·vj+bh
[0101] c‑1=Wc·vj+bc
[0102] 其中,Wh∈RL×D,Wc∈RL×D,bh∈RD,bc∈RD为训练参数。
[0103] 步骤2.3.3:通过解码模型在迭代时间步t的隐状态ht‑1和融合语义特征vF,进行加性多头注意力机制计算。加性多头注意力机制的计算过程包含如下子步骤:
[0104] 步骤2.3.3.1:加性多头注意力机制中第i个头的权重αi的计算公式如下:
[0105] αi=softmax(ReLU(Wiq·ht‑1+Wik·vF))
[0106] 其中 和 为投影矩阵,Ln为加性多头注意力特征维度与头数量的商。
[0107] 步骤2.3.3.2:加性多头注意力机制中的第i个头headi的加权计算公式如下:
[0108]
[0109] 其中 为vF的转置矩阵。
[0110] 步骤2.3.3.3:将多头head1,head2,...,headn的加权计算结果沿通道拼接后,经过A
投影矩阵WD变换得到加权图像特征向量vt,其计算公式如下:
[0111] vtA=[head1,head2,...,headn]·WD
[0112] 其中 为训练参数,LA为加性多头注意力机制的特征维度。
[0113] 步骤2.3.4:解码模型采用融合加性多头注意力机制的LSTM进行迭代计算,其迭代计算公式如下:
[0114] ht,ct=LSTM([We·wt,vtA],ht‑1,ct‑1)
[0115] 其中,We为词嵌入矩阵, LE为词嵌入维度,SD为字典中词的数量,wt为迭代时间步t的输入单词,
[0116] 步骤2.3.5:通过全连接层FC和softmax归一化后,解码模型输出字典中候选概率值最大的单词 其计算公式如下:
[0117]
[0118] 判断 是否为结束标记,如果不是,输出 并将其作为步骤2.3.4中迭代时间步t+1的输入单词wt+1继续迭代;否则结束迭代过程。
[0119] 步骤3,利用步骤1中的数据集及对应的描述文本训练步骤2中构建的文本描述生成网络;
[0120] 步骤4,将测试图像对输入到训练好的文本描述生成网络,输出其对应的描述文本。
[0121] 以上所述,仅是本发明较佳实施例而已,并非对本发明的技术范围作任何限制,故凡是依据本发明的技术实质对以上实施例所作的任何细微修改、等同变化与修饰,均仍属
于本发明技术方案的范围的。