模型的训练方法、多源多目标数据关联方法及装置转让专利

申请号 : CN202210488953.1

文献号 : CN114580623B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 关欣胡玉新张妤姝解得准张尚煜丁昊丁赤飚

申请人 : 中国科学院空天信息创新研究院

摘要 :

本发明提供了一种端到端的深度神经网络关联模型的训练方法和装置、一种多源多目标数据关联方法、装置、电子设备和存储介质。具体实现方式包括:获取第一辐射源历史样本数据序列、第一辐射源当前样本数据以及第一辐射源当前样本数据的标签;使用端到端的深度神经网络关联模型基于第一辐射源历史样本数据序列和第一辐射源当前样本数据,得到针对第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联概率;根据关联概率以及标签来计算关联损失函数;以及根据关联损失函数来调整端到端的深度神经网络关联模型的参数。

权利要求 :

1.一种端到端的深度神经网络关联模型的训练方法,其特征在于,包括:获取第一辐射源历史样本数据序列、第一辐射源当前样本数据以及所述第一辐射源当前样本数据的标签,所述第一辐射源历史样本数据序列包括第k时刻的辐射源的电磁特征参数和位置至第k‑i时刻的辐射源的电磁特征参数和位置,所述第一辐射源当前样本数据包括第k+1时刻的辐射源的电磁特征参数和位置,所述标签表征了所述第一辐射源当前样本数据与所述第一辐射源历史样本数据序列的关联关系,k为大于1的整数,i为大于2的整数;

使用所述端到端的深度神经网络关联模型基于所述第一辐射源历史样本数据序列和所述第一辐射源当前样本数据,得到针对所述第一辐射源当前样本数据与所述第一辐射源历史样本数据序列的关联概率;

根据所述关联概率以及所述标签来计算关联损失函数;以及

根据所述关联损失函数来调整所述端到端的深度神经网络关联模型的参数。

2.根据权利要求1所述的方法,其特征在于,所述端到端的深度神经网络关联模型包括多维预测特征提取模块、合并模块和关联概率估计模块;所述使用所述端到端的深度神经网络关联模型基于所述第一辐射源历史样本数据序列和所述第一辐射源当前样本数据,得到针对所述第一辐射源当前样本数据与所述第一辐射源历史样本数据序列的关联概率包括:使用所述多维预测特征提取模块基于所述第一辐射源历史样本数据序列,得到多维预测特征向量;

使用合并模块基于所述多维预测特征向量与所述第一辐射源当前样本数据,得到合并向量;以及使用所述关联概率估计模块基于所述合并向量,得到针对所述第一辐射源当前样本数据与所述第一辐射源历史样本数据序列的关联概率。

3.根据权利要求2所述的方法,其特征在于,所述根据所述关联损失函数来调整所述端到端的深度神经网络关联模型的参数包括:根据所述关联损失函数来调整所述多维预测特征提取模块的参数以及所述关联概率估计模块的参数。

4.根据权利要求1至3中任一项所述的方法,其特征在于,所述根据所述关联概率以及所述标签来计算关联损失函数包括:根据所述关联概率和所述标签,确定所述关联概率和所述标签之间的交叉熵损失函数;以及将所述关联概率和所述标签之间的交叉熵损失函数作为所述关联损失函数。

5.根据权利要求1所述的方法,其特征在于,所述获取第一辐射源历史样本数据序列和第一辐射源当前样本数据包括:对辐射源历史关联航迹执行滑窗操作,得到第二辐射源历史样本数据序列和第二辐射源当前样本数据,以及分别对所述第二辐射源历史样本数据序列和所述第二辐射源当前样本数据执行标准化处理操作,得到所述第一辐射源历史样本数据序列和所述第一辐射源当前样本数据。

6.一种多源多目标数据关联方法,其特征在于,包括:

将多个辐射源历史关联航迹与至少一个待关联辐射源的电磁特征参数和位置输入端到端的深度神经网络关联模型,得到所述至少一个待关联辐射源与所述多个辐射源历史关联航迹的关联结果,以及根据所述关联结果更新所述多个辐射源历史关联航迹;

其中,所述端到端的深度神经网络关联模型是根据权利要求1 5中任一项所述的方法~训练得到的。

7.一种端到端的深度神经网络关联模型的训练装置,其特征在于,包括:获取模块,用于获取第一辐射源历史样本数据序列、第一辐射源当前样本数据以及所述第一辐射源当前样本数据的标签,所述第一辐射源历史样本数据序列包括第k时刻的辐射源的电磁特征参数和位置至第k‑i时刻的辐射源的电磁特征参数和位置,所述第一辐射源当前样本数据包括第k+1时刻的辐射源的电磁特征参数和位置,所述标签表征了所述第一辐射源当前样本数据与所述第一辐射源历史样本数据序列的关联关系,k为大于1的整数,i为大于2的整数;

概率估计模块,用于使用所述端到端的深度神经网络关联模型基于所述第一辐射源历史样本数据序列和所述第一辐射源当前样本数据,得到针对所述第一辐射源当前样本数据与所述第一辐射源历史样本数据序列的关联概率;

计算模块,用于根据所述关联概率以及所述标签来计算关联损失函数;以及训练模块,用于根据所述关联损失函数来调整所述端到端的深度神经网络关联模型的参数。

8.一种多源多目标数据关联装置,其特征在于,包括:

关联模块,用于将多个辐射源历史关联航迹与至少一个待关联辐射源的电磁特征参数和位置输入端到端的深度神经网络关联模型,得到所述至少一个待关联辐射源与所述多个辐射源历史关联航迹的关联结果,以及更新模块,用于根据所述关联结果更新所述多个辐射源历史关联航迹;

其中,所述端到端的深度神经网络关联模型是根据权利要求1 5中任一项所述的方法~训练得到的。

9.一种电子设备,其特征在于,包括:

一个或多个处理器;

存储器,用于存储一个或多个程序,

其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1 6中任一项所述的方法。

~

10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有可执行指令,该指令被处理器执行时使处理器执行根据权利要求1 6中任一项所述的方法。

~

说明书 :

模型的训练方法、多源多目标数据关联方法及装置

技术领域

[0001] 本发明涉及无源探测技术领域,具体涉及一种端到端的深度神经网络关联模型的训练方法和装置、一种多源多目标数据关联方法、装置、电子设备、存储介质及计算机程序产品。

背景技术

[0002] 在无源探测领域,可以基于传统聚类算法或者目标关联模型来实现多辐射源目标关联。然而,基于传统聚类算法实现无源探测辐射源关联的研究通常适用于电磁特征参数不变或者变化不大的场景,导致在复杂电磁环境下常常出现辐射源错误关联和漏关联问题。传统的目标关联深度神经网络模型主要利用目标运动参数实现关联,不适用电磁特征参数,且通常将状态预测过程与目标关联过程分开进行,存在特征细节被忽略以及误差累计的问题,且两个过程的训练目标并不一致,导致模型关联准确度较低。

发明内容

[0003] 有鉴于此,本发明提供了一种端到端的深度神经网络关联模型的训练方法和装置、一种多源多目标数据关联方法、装置、电子设备、存储介质及计算机程序产品,以期至少部分解决上述存在的技术问题。
[0004] 根据本发明的一个方面,提供了一种端到端的深度神经网络关联模型的训练方法,包括:获取第一辐射源历史样本数据序列、第一辐射源当前样本数据以及第一辐射源当前样本数据的标签,第一辐射源历史样本数据序列包括第k时刻的辐射源的电磁特征参数和位置至第k‑i时刻的辐射源的电磁特征参数和位置,第一辐射源当前样本数据包括第k+1时刻的辐射源的电磁特征参数和位置,标签表征了第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联关系,k为大于1的整数,i为大于2的整数;使用端到端的深度神经网络关联模型基于第一辐射源历史样本数据序列和第一辐射源当前样本数据,得到针对第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联概率;根据关联概率以及标签来计算关联损失函数;以及根据关联损失函数来调整端到端的深度神经网络关联模型的参数。
[0005] 根据本发明的实施例,端到端的深度神经网络关联模型包括多维预测特征提取模块、合并模块和关联概率估计模块;使用端到端的深度神经网络关联模型基于第一辐射源历史样本数据序列和第一辐射源当前样本数据,得到针对第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联概率包括:使用多维预测特征提取模块基于第一辐射源历史样本数据序列,得到多维预测特征向量;使用合并模块基于多维预测特征向量与第一辐射源当前样本数据,得到合并向量;以及使用关联概率估计模块基于合并向量,得到针对第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联概率。
[0006] 根据本发明的实施例,根据关联损失函数来调整端到端的深度神经网络关联模型的参数包括:根据关联损失函数来调整多维预测特征提取模块的参数以及关联概率估计模块的参数。
[0007] 根据本发明的实施例,根据关联概率以及标签来计算关联损失函数包括:根据关联概率和标签,确定关联概率和标签之间的交叉熵损失函数;以及将关联概率和标签之间的交叉熵损失函数作为关联损失函数。
[0008] 根据本发明的实施例,获取第一辐射源历史样本数据序列和第一辐射源当前样本数据包括:对辐射源历史关联航迹执行滑窗操作,得到第二辐射源历史样本数据序列和第二辐射源当前样本数据,以及分别对第二辐射源历史样本数据序列和第二辐射源当前样本数据执行标准化处理操作,得到第一辐射源历史样本数据序列和第一辐射源当前样本数据。
[0009] 根据本发明的另一方面,提供了一种多源多目标数据关联方法,包括:将多个辐射源历史关联航迹与至少一个待关联辐射源的电磁特征参数和位置输入端到端的深度神经网络关联模型,得到至少一个待关联辐射源与多个辐射源历史关联航迹的关联结果,以及根据关联结果更新多个辐射源历史关联航迹;其中,端到端的深度神经网络关联模型是根据以上所述的方法训练得到的。
[0010] 根据本发明的另一方面,提供了一种端到端的深度神经网络关联模型的训练装置,包括:获取模块,用于获取第一辐射源历史样本数据序列、第一辐射源当前样本数据以及第一辐射源当前样本数据的标签,第一辐射源历史样本数据序列包括第k时刻的辐射源的电磁特征参数和位置至第k‑i时刻的辐射源的电磁特征参数和位置,第一辐射源当前样本数据包括第k+1时刻的辐射源的电磁特征参数和位置,标签表征了第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联关系,k为大于1的整数,i为大于2的整数;概率估计模块,用于使用端到端的深度神经网络关联模型基于第一辐射源历史样本数据序列和第一辐射源当前样本数据,得到针对第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联概率;计算模块,用于根据关联概率以及标签来计算关联损失函数;以及训练模块,用于根据关联损失函数来调整端到端的深度神经网络关联模型的参数。
[0011] 根据本发明的另一方面,提供了一种多源多目标数据关联装置,包括:关联模块,用于将多个辐射源历史关联航迹与至少一个待关联辐射源的电磁特征参数和位置输入端到端的深度神经网络关联模型,得到至少一个待关联辐射源与多个辐射源历史关联航迹的关联结果,以及更新模块,用于根据关联结果更新多个辐射源历史关联航迹;其中,端到端的深度神经网络关联模型是根据以上的方法训练得到的。
[0012] 根据本发明的另一方面,提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得一个或多个处理器执行实现如上所述的方法。
[0013] 根据本发明的另一方面,还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行实现如上所述的方法。
[0014] 根据本发明的另一方面,还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现如上所述的方法。

附图说明

[0015] 为进一步说明本发明的技术内容,以下将结合实例及附图来详细说明,其中:
[0016] 图1是根据本发明实施例的端到端的深度神经网络关联模型的训练方法的流程图;
[0017] 图2是根据本发明实施例的端到端的深度神经网络关联模型的训练方法的示意图;
[0018] 图3是根据本发明实施例的多源多目标数据关联方法的流程图;
[0019] 图4是根据本发明实施例的端到端的深度神经网络关联模型的训练装置的结构框图;
[0020] 图5是根据本发明实施例的多源多目标数据关联装置的结构框图;以及
[0021] 图6是根据本发明实施例的适于实现端到端的深度神经网络关联模型的训练方法以及多源多目标数据关联方法的电子设备的方框图。

具体实施方式

[0022] 以下,将参照附图来描述本发明的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本发明的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本发明实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
[0023] 在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本发明。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。另外,本发明实施例中有涉及“第一”、“第二”等的描述,则该“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。
[0024] 在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
[0025] 在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
[0026] 本发明的技术方案中,对数据的获取、收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
[0027] 图1是根据本发明实施例的端到端的深度神经网络关联模型的训练方法的流程图。
[0028] 如图1所示,端到端的深度神经网络关联模型的训练方法包括操作S110 S140。~
[0029] 在操作S110,获取第一辐射源历史样本数据序列、第一辐射源当前样本数据以及第一辐射源当前样本数据的标签。
[0030] 根据本发明的实施例,第一辐射源历史样本数据序列包括第k时刻的辐射源的电磁特征参数和位置至第k‑i时刻的辐射源的电磁特征参数和位置,第一辐射源当前样本数据包括第k+1时刻的辐射源的电磁特征参数和位置。其中k为大于1的整数,i为大于2的整数。
[0031] 在本发明实施例中,辐射源的电磁特征参数例如可以包括但不限于辐射源的载频、重频、脉宽和带宽等参数,辐射源的位置例如可以包括但不限于辐射源的经度、纬度和速度等参数,本发明对此不做限定。
[0032] 为了便于描述,可以将某一时刻的辐射源的电磁特征参数和位置定义为一个样本数据,因此,第一辐射源历史样本数据序列包括第k时刻的样本数据至第k‑i时刻的样本数据,第一辐射源当前样本数据包括第k+1时刻的样本数据。
[0033] 需要说明的是,第k时刻的辐射源的电磁特征参数和位置是指第一辐射源历史样本数据序列中最新时刻对应的样本数据。第k‑i时刻的辐射源的电磁特征参数和位置是指第一辐射源历史样本数据序列中最新时刻的前i时刻所对应的样本数据。本发明中,第k时刻至第k‑i时刻的辐射源的电磁特征参数和位置均同此定义,后续不再赘述。
[0034] 在本发明实施例中,第一辐射源当前样本数据的标签与第一辐射源当前样本数据一一对应。第一辐射源当前样本数据的标签表征了第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联关系。这里所谓的关联关系例如可以是指在第一辐射源当前样本数据与第一辐射源历史样本数据序列存在关联关系时,则第k+1个样本数据是第一辐射源历史样本数据序列的下一目标状态,否则,则说明第k+1个样本数据不是第一辐射源历史样本数据序列的下一目标状态。
[0035] 在一个示例中,可以采用标签值来表征第一辐射源当前样本数据与第一辐射源历史样本数据序列之间的关联关系。例如,若第一辐射源当前样本数据与第一辐射源历史样本数据序列之间存在关联关系,标签值可以取1;若不存在关联关系,标签值可以取0。
[0036] 根据本发明的实施例,可以对辐射源历史关联航迹执行滑窗操作,得到第一辐射源历史样本数据序列和第一辐射源当前样本数据。其中辐射源历史关联航迹是指由多个时刻的辐射源的电磁特征参数和位置关联而形成的航迹。
[0037] 在本发明实施例中,辐射源历史关联航迹例如可以表示为以下公式(1)中所示的形式。
[0038]                (1)
[0039] 在公式(1)中,X表示辐射源历史关联航迹,X1至Xm表示辐射源历史关联航迹X中m个时刻的样本数据。
[0040] 每个时刻的样本数据例如可以表示为以下公式(2)中所示的形式。
[0041]              (2)
[0042] 在公式(2)中,X(k)表示第k(k=1, 2,…,m)时刻的样本数据,xn(k)表示第k时刻的样本数据中第n(n=1, 2,…,N)个特征参数。这里所谓的特征参数例如可以是指辐射源的电磁特征参数和位置参数中的任意一个参数。
[0043] 由于每个样本数据中涉及的数据类型较多,为了便于后续对数据进行处理,在通过滑窗操作获取第一辐射源历史样本数据序列和第一辐射源当前样本数据之前,可以对辐射源历史关联航迹中的多个样本数据进行标准化处理。这里所谓的标准化处理例如可以是指针对每个样本数据中的每个特征参数,利用辐射源历史关联航迹中的最大值和最小值来对该特征参数进行处理,从而得到标准化后的特征参数。
[0044] 在一个示例中,可以以下方式确定标准化后的特征参数:
[0045]                 (3)
[0046] 在公式(3)中,xkn表示第k时刻的样本数据中的第n个特征参数, 表示标准化后的xkn,xmin表示辐射源历史关联航迹中的最小值,xmax表示辐射源历史关联航迹中的最大值。
[0047] 基于以上公式(3)中的方式对辐射源历史关联航迹中的多个样本数据进行标准化处理,可以得到标准化后的辐射源历史关联航迹。标准化后的辐射源历史关联航迹可以表示为以下公式(4)所示的形式。
[0048]               (4)
[0049] 在公式(4)中, 表示标准化后的辐射源历史关联航迹, 至 表示标准化后的X1至Xm。
[0050] 由于标准化处理后的辐射源历史关联航迹是包含多个特征参数的时间序列,因而可以对标准化处理后的辐射源历史关联航迹执行滑窗操作,例如可以通过移动窗口大小为i的滑窗来得到多个样本对,每个样本对包括第一辐射源当前样本数据和第一辐射源历史样本数据序列,从而得到一个有监督的数据集。利用该数据集对端到端的深度神经网络关联模型进行训练,以使端到端的深度神经网络关联模型能够充分学习辐射源的电磁特征和位置的变化规律,同时滑窗更新上一步关联结果进行持续预测,从而提高模型对复杂时变电磁环境下的多源多目标关联能力。
[0051] 需要说明的是,在一些实施例中,还可以采用以下操作获取第一辐射源历史样本数据序列和第一辐射源当前样本数据:对辐射源历史关联航迹执行滑窗操作,得到第二辐射源历史样本数据序列和第二辐射源当前样本数据,以及分别对第二辐射源历史样本数据序列和第二辐射源当前样本数据执行标准化处理操作,得到第一辐射源历史样本数据序列和第一辐射源当前样本数据。其中,对第二辐射源历史样本数据序列和第二辐射源当前样本数据执行标准化处理操作与以上描述的标准化处理方式相同或类似,在此不再赘述。
[0052] 在操作S120,使用端到端的深度神经网络关联模型基于第一辐射源历史样本数据序列和第一辐射源当前样本数据,得到针对第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联概率。
[0053] 根据本发明的实施例,端到端的深度神经网络关联模型包括多维预测特征提取模块、合并模块和关联概率估计模块。
[0054] 对于任意一个样本对,将第一辐射源历史样本数据序列和第一辐射源当前样本数据输入端到端的深度神经网络关联模型,得到针对第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联概率可以包括如下操作:使用多维预测特征提取模块基于第一辐射源历史样本数据序列,得到多维预测特征向量,使用合并模块基于多维预测特征向量与第一辐射源当前样本数据,得到合并向量;以及使用关联概率估计模块基于合并向量,得到针对第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联概率。
[0055] 可以理解,由于每个时刻的样本数据包括多个特征参数,因此,第一辐射源历史样本数据序列是一个i*N维的特征向量,第一辐射源当前样本数据可以是一个1*N维的特征向量。
[0056] 多维预测特征提取模块例如可以采用长短记忆网络(Long‑Short Term Memory,LSTM)来实现。借助LSTM网络的长期记忆能力,对第一辐射源历史样本数据序列的全局长期依赖特征进行学习和预测,从而得到多维预测特征向量。多维预测特征向量表征了第k+1时刻的辐射源的预测状态。
[0057] 获取多维预测特征向量之后,将多维预测特征向量和第一辐射源当前样本数据输入合并模块,得到合并向量。
[0058] 关联概率估计模块例如可以采用全连接层组合分类器来实现。将合并向量输入全连接层,并将全连接层的输出送入分类器中,得到针对该第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联概率。由此,实现了将第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联程度映射为0 1的关联概率。~
[0059] 在本发明的实施例中,可以采用以下公式(5)来计算第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联概率。
[0060]                  (5)
[0061] 在公式(5)中, 表示第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联概率, 表示全连接层的参数(即全连接层的线性加权权值),T表示矩阵转置,y表示合并向量。
[0062] 在一些实施例中,为了避免训练中可能出现的过拟合现象,可以采用dropout减少神经元节点间的联合适应性,提升网络鲁棒性。在一个示例中,dropout中的参数可以取0.8,但本发明不局限于此。
[0063] 在操作S130,根据关联概率以及标签来计算关联损失函数。
[0064] 根据本发明的实施例,对于任意一个样本对,可以计算上述关联概率与第一辐射源当前样本数据的标签之间的交叉熵损失函数,并将交叉熵损失函数作为关联损失函数。
[0065] 在本发明实施例中,可以采用以下公式(6)来计算关联概率与第一辐射源当前样本数据的标签之间的交叉熵损失函数。
[0066]                 (6)
[0067] 在公式(6)中,loss表示关联概率与第一辐射源当前样本数据的标签之间的交叉熵损失函数, 表示关联概率, 表示第一辐射源当前样本数据的标签。在一个示例中,若第一辐射源当前样本数据是第一辐射源历史样本数据序列的下一时刻状态, 则取值为1,否则取值为0。
[0068] 在操作S140,根据关联损失函数来调整端到端的深度神经网络关联模型的参数。
[0069] 根据本发明的实施例,针对通过滑窗操作从辐射源历史关联航迹中获取的多个样本对中的每一个,可以采用步骤S120 S130中的操作,计算得到多个样本对的关联损失函~数。利用多个样本对的关联损失函数来联合调整多维预测特征提取模块的参数以及关联概率估计模块的参数,直至模型收敛。
[0070] 在本发明实施例中,对于端到端的深度神经网络关联模型的训练,可以通过监督学习的方法,并结合例如但不限于随时间反向传播(Back‑Propagation Through Time,BPTT)算法与Adam优化算法,以最小化关联损失函数为优化目标来进行参数训练,从而得到模型的最优参数。
[0071] 相比于将状态预测过程与目标关联过程分开进行训练的方法,本发明通过将状态预测和关联估计过程进行联合训练,从而训练得到一个端到端的深度神经网络关联模型。由此,实现输入样本数据与关联概率的直接映射,简化了整个算法的流程,降低计算复杂度,同时避免了误差累计的问题,而且使得模型对多维时变复杂的特征处理表现出较好的鲁棒性,进一步提高了模型关联准确度。
[0072] 此外,本发明基于复杂时变的辐射源电磁特征参数和位置来构建一个有监督的数据集,利用数据集对端到端的深度神经网络关联模型进行训练,以使得端到端的深度神经网络关联模型能够充分学习辐射源的电磁特征的变化规律和运动规律,提升了模型对复杂时变电磁环境下的多源多目标关联准确度。
[0073] 图2是根据本发明实施例的端到端的深度神经网络关联模型的训练方法的示意图。以下将参考图2对本发明的方案进行说明。
[0074] 如图2所示,端到端的深度神经网络关联模型200包括多维预测特征提取模块210、合并模块220和关联概率估计模块230。
[0075] 在图2所示的示例中,多维预测特征提取模块210可以采用LSTM网络来实现。关联概率估计模块230可以采用一个或多个全连接层组合分类器来实现。根据本发明实施例的端到端的深度神经网络关联模型的训练方法可以完成对多维预测特征提取模块210和关联概率估计模块230的训练,从而得到一个端到端的深度神经网络关联模型。
[0076] 如图2所示,获取第一辐射源历史样本数据序列Xr、第一辐射源当前样本数据Fr和第一辐射源当前样本数据Fr的标签之后,使用多维预测特征提取模块210(例如LSTM网络)对第一辐射源历史样本数据序列Xr进行预测,得到多维预测特征向量Fy。
[0077] 将多维预测特征向量Fy和第一辐射源当前样本数据Fr输入合并模块220,以将多维预测特征向量Fy和第一辐射源当前样本数据Fr进行合并,得到合并向量Fh。
[0078] 将合并向量Fh输入关联概率估计模块230中的一个或多个全连接层,并将一个或多个全连接层的输出结果输入分类器中,得到针对该第一辐射源当前样本数据Fr与第一辐射源历史样本数据序列Xr的关联概率Gj。由此,实现了将第一辐射源当前样本数据Fr与第一辐射源历史样本数据序列Xr的关联程度映射为0 1的关联概率。~
[0079] 根据关联概率Gj以及第一辐射源当前样本数据Fr的标签可以计算240得到关联损失函数L,该关联损失函数L可以用于调整端到端的深度神经网络关联模型200的参数,即调整多维预测特征提取模块210和关联概率估计模块230的参数。
[0080] 图3是根据本发明实施例的多源多目标数据关联方法的流程图。
[0081] 如图3所示,多源多目标数据关联方法包括操作S310 S320。~
[0082] 在操作S310,将多个辐射源历史关联航迹与至少一个待关联辐射源的电磁特征参数和位置输入端到端的深度神经网络关联模型,得到至少一个待关联辐射源与多个辐射源历史关联航迹的关联结果。
[0083] 根据本发明的实施例,辐射源历史关联航迹与以上描述的定义相同或类似,这里不再赘述。
[0084] 这里所谓的端到端的深度神经网络关联模型是基于以上实施例中任一项所述的端到端的深度神经网络关联模型的训练方法训练得到的。
[0085] 将多个辐射源历史关联航迹与至少一个待关联辐射源的电磁特征参数和位置输入端到端的深度神经网络关联模型,得到至少一个待关联辐射源与多个辐射源历史关联航迹的关联结果。由此,可以实现对复杂时变电磁环境下的多源多目标的准确关联。
[0086] 在操作S320,根据关联结果更新多个辐射源历史关联航迹。
[0087] 在本发明实施例中,可以利用至少一个待关联辐射源与多个辐射源历史关联航迹的关联结果来更新多个辐射源历史关联航迹。由此,可以保持连续完整的航迹关联跟踪。
[0088] 在本发明实施例的方案中,通过利用以上方式训练得到的端到端的深度神经网络关联模型来对待关联辐射源的电磁特征参数和位置进行关联,使得模型对多维时变复杂的特征处理表现出较好的鲁棒性,提高了模型关联准确度。
[0089] 为了使本领域技术人员能够更加清楚地了解本发明的技术方案,以下将结合具体的实施例来说明本发明的优势。
[0090] 在一个模拟训练集合中,场景为(600×600)km2范围的空间存在20个辐射源,各辐射源按不同速度与方向作变速运动。目标的初始位置在空间内成正态分布,初始航向与加速度方向在(0,2π)之间均匀分布,采样间隔为0.1h,总采样数为200次,定位误差取2km,观测数据中存在1000个虚假点,位置服从均匀分布。在有监督模型的训练过程中,将原始的数据集按照4:1进行划分,得到训练集和测试集,其中,训练集用于模型的训练学习,测试集用于模型的评估和测试。实验环境为python3、tensorflow2.2.0和keras2.3.1,CPU上运行完成模型训练和测试。
[0091] 基于上模拟场景,对本发明的方法以及不同多目标关联模型或者关联算法的性能进行了比较,各模型性能比较结果如表1所示。其中多目标关联模型或者关联算法包括最邻近数据关联算法(NNDA)、联合概率数据关联算法(JPDA)和基于运动参数的深度关联网络模型。
[0092]
[0093] 表1
[0094] 如表1所示,采用经典算法(例如NNDA和JPDA)进行关联的准确率分别为64.10%和80.67%,基于运动参数的深度关联网络模型进行关联的准确率为86.93%,而采用本发明的方法对辐射源进行关联测试,其准确率可达90.69%,高于采用经典算法(例如NNDA和JPDA)以及仅基于运动参数的深度关联网络模型进行关联的准确率。而且,相较于采用NNDA、JPDA的关联方法,采用本发明的方法在关联的准确率上有明显提高,分别提高了26.59%、
10.02%。可见,采用本发明的方法可以使得模型对多维时变复杂的特征处理表现出较好的鲁棒性,提高了模型关联准确度。另外,相对于基于运动参数的深度关联网络模型来说,本发明的方法不仅提高了关联准确率,而且还缩短了运行时间。
[0095] 此外,还对采用本发明的方法与以上关联模型或者关联算法得到的辐射源关联结果的均方根误差进行对比。经实验验证,相比于采用NNDA、JPDA以及基于运动参数的深度关联网络模型的关联方法,采用本发明的方法得到的均方根误差更小,这说明采用本发明训练得到的模型对多维时变复杂的特征处理表现出较好的鲁棒性。虽然计算复杂度有所增加,但可以满足系统对多目标关联的实时要求,综合性能优势明显。此外,相比于仅基于运动参数的深度关联网络模型的关联算法,采用本发明的方法关联准确率提升了3.76%,说明模型在降低累计误差上的有效性,且其均方根误差、计算复杂度都有所降低,验证了模型端到端结构在简化流程,降低复杂度上的有效性。
[0096] 图4是根据本发明实施例的端到端的深度神经网络关联模型的训练装置的结构框图。
[0097] 如图4所示,端到端的深度神经网络关联模型的训练装置400包括获取模块410、概率估计模块420、计算模块430和训练模块440。
[0098] 获取模块410用于获取第一辐射源历史样本数据序列、第一辐射源当前样本数据以及第一辐射源当前样本数据的标签,第一辐射源历史样本数据序列包括第k时刻的辐射源的电磁特征参数和位置至第k‑i时刻的辐射源的电磁特征参数和位置,第一辐射源当前样本数据包括第k+1时刻的辐射源的电磁特征参数和位置,标签表征了第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联关系,k为大于1的整数,i为大于2的整数。
[0099] 概率估计模块420用于使用端到端的深度神经网络关联模型基于第一辐射源历史样本数据序列和第一辐射源当前样本数据,得到针对第一辐射源当前样本数据与第一辐射源历史样本数据序列的关联概率。
[0100] 计算模块430用于根据关联概率以及标签来计算关联损失函数。以及
[0101] 训练模块440用于根据关联损失函数来调整端到端的深度神经网络关联模型的参数。
[0102] 图5是根据本发明实施例的多源多目标数据关联装置的结构框图。
[0103] 如图5所示,多源多目标数据关联装置500包括关联模块510和更新模块520。
[0104] 关联模块510用于将多个辐射源历史关联航迹与至少一个待关联辐射源的电磁特征参数和位置输入端到端的深度神经网络关联模型,得到至少一个待关联辐射源与多个辐射源历史关联航迹的关联结果,以及更新模块520用于根据关联结果更新多个辐射源历史关联航迹;其中,端到端的深度神经网络关联模型是基于以上实施例中任一项的端到端的深度神经网络关联模型的训练方法训练得到的。
[0105] 需要说明的是,装置部分实施例中各模块/单元/子单元等的实施方式、解决的技术问题、实现的功能、以及达到的技术效果分别与方法部分实施例中各对应的步骤的实施方式、解决的技术问题、实现的功能、以及达到的技术效果相同或类似,在此不再赘述。
[0106] 根据本发明的实施例,获取模块410、概率估计模块420、计算模块430和训练模块440,或者关联模块510和更新模块520中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本发明的实施例,获取模块410、概率估计模块420、计算模块430和训练模块440,或者关联模块510和更新模块520中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。
或者,获取模块410、概率估计模块420、计算模块430和训练模块440,或者关联模块510和更新模块520中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
[0107] 图6示意性示出了根据本发明实施例的适于实现端到端的深度神经网络关联模型的训练方法以及多源多目标数据关联方法的电子设备的方框图。
[0108] 如图6所示,根据本发明实施例的电子设备600包括处理器601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。处理器601例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器601还可以包括用于缓存用途的板载存储器。处理器601可以包括用于执行根据本发明实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
[0109] 在RAM 603中,存储有电子设备600操作所需的各种程序和数据。处理器601、ROM 602以及RAM 603通过总线604彼此相连。处理器601通过执行ROM 602和/或RAM 603中的程序来执行根据本发明实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 602和RAM 603以外的一个或多个存储器中。处理器601也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本发明实施例的方法流程的各种操作。
[0110] 根据本发明的实施例,电子设备600还可以包括输入/输出(I/O)接口605,输入/输出(I/O)接口605也连接至总线604。电子设备600还可以包括连接至I/O接口605的以下部件中的一项或多项:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
[0111] 本发明还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本发明实施例的端到端的深度神经网络关联模型的训练方法以及多源多目标数据关联方法。
[0112] 根据本发明的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD‑ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本发明的实施例,计算机可读存储介质可以包括上文描述的ROM 602和/或RAM 603和/或ROM 602和RAM 603以外的一个或多个存储器。
[0113] 本发明的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本发明实施例所提供的端到端的深度神经网络关联模型的训练方法以及多源多目标数据关联方法。
[0114] 在该计算机程序被处理器601执行时执行本发明实施例的系统/装置中限定的上述功能。根据本发明的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
[0115] 在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分609被下载和安装,和/或从可拆卸介质611被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
[0116] 在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被处理器601执行时,执行本发明实施例的系统中限定的上述功能。根据本发明的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
[0117] 根据本发明的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本发明实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
[0118] 附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0119] 本领域技术人员可以理解,本发明的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本发明中。特别地,在不脱离本发明精神和教导的情况下,本发明的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本发明的范围。
[0120] 以上对本发明的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本发明的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本发明的范围由所附权利要求及其等同物限定。不脱离本发明的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本发明的范围之内。