脂润滑膜厚的确定方法及装置转让专利

申请号 : CN201811354644.5

文献号 : CN109598031B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 彭小娜马明张亚召

申请人 : 清华大学

摘要 :

本发明公开了一种脂润滑膜厚的确定方法及装置,该方法包括:根据数值仿真算法确定多组不同输入参数下的膜厚值;利用多组输入值和对应的膜厚值对神经网络模型进行训练,得到训练后的神经网络模型,其中,输入值至少包括输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值;将获得的当前输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值输入至所述训练后的神经网络模型,得到膜厚值;输出所述膜厚值。

权利要求 :

1.一种脂润滑膜厚的确定方法,其特征在于,包括:

根据数值仿真算法确定多组不同输入参数下的膜厚值;

利用多组输入值和对应的膜厚值对神经网络模型进行训练,得到训练后的神经网络模型,其中,输入值至少包括输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值;

将获得的当前输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值输入至所述训练后的神经网络模型,得到膜厚值;

输出所述膜厚值;

其中,根据数值仿真算法确定多组不同输入参数下的膜厚值,包括:S1、利用获得的初始输入载荷值和膜厚方程得到第一膜厚值;

S2、利用所述第一膜厚值和雷诺方程得到润滑脂流体压力值,以及,利用所述第一膜厚值和微凸体接触应力模型方程得到微凸体接触压力值;

S3、利用所述润滑脂流体压力值、所述微凸体接触压力值和载荷平衡方程得到输入载荷值;

S4、按照S1、S2和S3进行迭代处理,直至迭代前和迭代后的润滑脂流体压力值差值、迭代前和迭代后的微凸体接触压力值差值和迭代前和迭代后的输入载荷值的差值均小于预设差值为止,并将本次迭代处理得到的膜厚值作为所述初始输入载荷值对应的膜厚值。

2.根据权利要求1所述的方法,其特征在于,利用获得的初始输入载荷值和膜厚方程得到膜厚值,包括:获取摩擦副接触表面的初始最小接触间隙值;

将所述初始最小接触间隙值和所述初始输入载荷值输入至所述膜厚方程,得到膜厚值。

3.根据权利要求1所述的方法,其特征在于,利用所述第一膜厚值和雷诺方程得到润滑脂流体压力值,包括:获取润滑脂的流变指数值、润滑脂的初始密度值、润滑脂的初始黏度值、摩擦副的接触表面的表面粗糙度值和卷吸速率值;

将第一膜厚值、润滑脂的流变指数值、润滑脂的初始密度值、润滑脂的初始黏度值、摩擦副的接触表面的表面粗糙度值和卷吸速率值输入至所述雷诺方程,得到润滑脂流体压力值。

4.根据权利要求1所述的方法,其特征在于,利用所述第一膜厚值和微凸体接触应力模型方程得到微凸体接触压力值,包括:获取摩擦副的表面参数值、摩擦副的弹性模量值、微凸体曲率半径值、微凸体的高度值、摩擦副接触表面的平均间隙值、微凸体平均高度和表面平均高度的差值和摩擦副的硬度值;

将第一膜厚值、表面参数值、摩擦副的弹性模量值、微凸体曲率半径值、微凸体的高度值、摩擦副接触表面的平均间隙值、微凸体平均高度和表面平均高度的差值和硬度值输入至所述微凸体接触应力模型方程,得到微凸体接触压力值。

5.根据权利要求1-4中任一所述的方法,其特征在于,利用多组输入值和对应的膜厚值对神经网络模型进行训练,得到训练后的神经网络模型,包括:将多组输入值和对应的膜厚值输入至神经网络模型;

利用遗传算法,对所述神经网络模型的权值和阈值进行优化处理;

将所述神经网络模型中输出的预测膜厚值与输入的膜厚值的差值满足训练精度要求时对应的权值和阈值,传输至神经网络模型,得到训练后的神经网络模型。

6.一种脂润滑膜厚的确定装置,其特征在于,包括:

数值仿真计算模块,用于根据数值仿真算法确定多组不同输入参数下的膜厚值;

神经网络训练模块,用于利用多组输入值和对应的膜厚值对神经网络模型进行训练,得到训练后的神经网络模型,其中,输入值至少包括输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值;

神经网络计算模块,用于将获得的当前输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值输入至所述训练后的神经网络模型,得到膜厚值;

输出模块,用于输出所述膜厚值;

其中,所述数值仿真计算模块还用于:

S1、利用获得的初始输入载荷值和膜厚方程得到第一膜厚值;

S2、利用所述第一膜厚值和雷诺方程得到润滑脂流体压力值,以及,利用所述第一膜厚值和微凸体接触应力模型方程得到微凸体接触压力值;

S3、利用所述润滑脂流体压力值、所述微凸体接触压力值和载荷平衡方程得到输入载荷值;

S4、按照S1、S2和S3进行迭代处理,直至迭代前和迭代后的润滑脂流体压力值差值、迭代前和迭代后的微凸体接触压力值差值和迭代前和迭代后的输入载荷值的差值均小于预设差值为止,并将本次迭代处理得到的膜厚值作为所述初始输入载荷值对应的膜厚值。

7.根据权利要求6所述的装置,其特征在于,所述神经网络训练模块还用于:将多组输入值和对应的膜厚值输入至神经网络模型;

利用遗传算法,对所述神经网络模型的权值和阈值进行优化处理;

将所述神经网络模型中输出的预测膜厚值与输入的膜厚值的差值满足训练精度要求时对应的权值和阈值,传输至神经网络模型,得到训练后的神经网络模型。

8.一种脂润滑膜厚的确定装置,其特征在于,包括:存储器和处理器,其中,所述存储器存储可执行指令,所述可执行指令控制所述处理器进行操作以执行根据权利要求1-5中的任何一项所述的脂润滑膜厚的确定方法。

说明书 :

脂润滑膜厚的确定方法及装置

技术领域

[0001] 本发明涉及脂润滑技术领域,更具体地,涉及一种脂润滑膜厚的确定方法、一种脂润滑膜厚的确定装置。

背景技术

[0002] 目前,约80%的零件损坏是由磨损造成的。降低摩擦磨损一直是国内外学者研究的方向和目标。降低摩擦和磨损的一种有效方式是润滑。
[0003] 脂润滑由于具有良好的润滑持久性和密封性,被广泛应用于各类滚动轴承和机械设备中,尤其是在高低温、极压、腐蚀、潮湿等苛刻工况下。
[0004] 在对润滑剂润滑行为的研究中,润滑机制成为主要的研究内容。而润滑机制的判定通常由脂润滑膜厚与摩擦副表面粗糙度的比值确定。当脂润滑膜厚与摩擦副表面粗糙度的比值在1~3时,其润滑机制为混合润滑。当脂润滑膜厚与摩擦副表面粗糙度的比值小于1时为边界润滑。当脂润滑膜厚与摩擦副表面粗糙度的比值大于3时为全膜润滑。当润滑为全膜润滑时,由于润滑脂隔断了摩擦副材料的直接接触,所以磨损不易发生,此时的润滑状态为最优润滑状态。
[0005] 在判定润滑机制时,膜厚是判定的关键因素。膜厚受很多因素的影响,一方面来自于润滑剂本身,如润滑剂的黏度及其流变特性;二是来自于摩擦副材料的特性,如材料表面的粗糙度、材料的弹性模量、硬度等;三是外加工况条件,如载荷、相对运动速率等。
[0006] 目前,通常采用实验手段,通过仪器设备测量不同参数下的膜厚,测量操作复杂。
[0007] 因此,需要提供一种新的技术方案,针对上述现有技术中的技术问题进行改进。

发明内容

[0008] 本发明的一个目的是提供一种用于检测脂润滑膜厚的新技术方案。
[0009] 根据本发明的第一方面,提供了一种脂润滑膜厚的确定方法,包括:
[0010] 根据数值仿真算法确定多组不同输入参数下的膜厚值;
[0011] 利用多组输入值和对应的膜厚值对神经网络模型进行训练,得到训练后的神经网络模型,其中,输入值至少包括输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值;
[0012] 将获得的当前输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值输入至所述训练后的神经网络模型,得到膜厚值;
[0013] 输出所述膜厚值。
[0014] 可选地,根据数值仿真算法确定多组不同输入参数下的膜厚值,包括:
[0015] S1、利用获得的初始输入载荷值和膜厚方程得到第一膜厚值;
[0016] S2、利用所述第一膜厚值和雷诺方程得到润滑脂流体压力值,以及,利用所述第一膜厚值和微凸体接触应力模型方程得到微凸体接触压力值;
[0017] S3、利用所述润滑脂流体压力值、所述微凸体接触压力值和载荷平衡方程得到输入载荷值;
[0018] S4、按照S1、S2和S3进行迭代处理,直至迭代前和迭代后的润滑脂流体压力值差值、迭代前和迭代后的微凸体接触压力值差值和迭代前和迭代后的输入载荷值的差值均小于预设差值为止,并将本次迭代处理得到的膜厚值作为所述初始输入载荷值对应的膜厚值。
[0019] 可选地,利用获得的初始输入载荷值和膜厚方程得到膜厚值,包括:
[0020] 获取摩擦副接触表面的初始最小接触间隙值;
[0021] 将所述初始最小接触间隙值和所述初始输入载荷值输入至所述膜厚方程,得到膜厚值。
[0022] 可选地,利用所述第一膜厚值和雷诺方程得到润滑脂流体压力值,包括:
[0023] 获取润滑脂的流变指数值、润滑脂的初始密度值、润滑脂的初始黏度值、摩擦副的接触表面的表面粗糙度值和卷吸速率值;
[0024] 将第一膜厚值、润滑脂的流变指数值、润滑脂的初始密度值、润滑脂的初始黏度值、摩擦副的接触表面的表面粗糙度值和卷吸速率值输入至所述雷诺方程,得到润滑脂流体压力值。
[0025] 可选地,利用所述第一膜厚值和微凸体接触应力模型方程得到微凸体接触压力值,包括:
[0026] 获取摩擦副的表面参数值、摩擦副的弹性模量值、微凸体曲率半径值、微凸体的高度值、摩擦副接触表面的平均间隙值、微凸体平均高度和表面平均高度的差值和摩擦副的硬度值;
[0027] 将第一膜厚值、表面参数值、摩擦副的弹性模量值、微凸体曲率半径值、微凸体的高度值、摩擦副接触表面的平均间隙值、微凸体平均高度和表面平均高度的差值和硬度值输入至所述微凸体接触应力模型方程,得到微凸体接触压力值。
[0028] 可选地,利用多组输入值和对应的膜厚值对神经网络模型进行训练,得到训练后的神经网络模型,包括:
[0029] 将多组输入值和对应的膜厚值输入至神经网络模型;
[0030] 利用遗传算法,对所述神经网络模型的权值和阈值进行优化处理;
[0031] 将所述神经网络模型中输出的预测膜厚值与输入的膜厚值的差值满足训练精度要求时对应的权值和阈值,传输至神经网络模型,得到训练后的神经网络模型。
[0032] 根据本发明的第二方面,提供了一种脂润滑膜厚的确定装置,包括:
[0033] 数值仿真计算模块,用于根据数值仿真算法确定多组不同输入参数下的膜厚值;
[0034] 神经网络训练模块,用于利用多组输入值和对应的膜厚值对神经网络模型进行训练,得到训练后的神经网络模型,其中,输入值至少包括输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值;
[0035] 神经网络计算模块,用于将获得的当前输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值输入至所述训练后的神经网络模型,得到膜厚值;
[0036] 输出模块,用于输出所述膜厚值。
[0037] 可选地,所述数值仿真计算模块还用于:
[0038] S1、利用获得的初始输入载荷值和膜厚方程得到第一膜厚值;
[0039] S2、利用所述第一膜厚值和雷诺方程得到润滑脂流体压力值,以及,利用所述第一膜厚值和微凸体接触应力模型方程得到微凸体接触压力值;
[0040] S3、利用所述润滑脂流体压力值、所述微凸体接触压力值和载荷平衡方程得到输入载荷值;
[0041] S4、按照S1、S2和S3进行迭代处理,直至迭代前和迭代后的润滑脂流体压力值差值、迭代前和迭代后的微凸体接触压力值差值和迭代前和迭代后的输入载荷值的差值均小于预设差值为止,并将本次迭代处理得到的膜厚值作为所述初始输入载荷值对应的膜厚值。
[0042] 可选地,所述神经网络训练模块还用于:
[0043] 将多组输入值和对应的膜厚值输入至神经网络模型;
[0044] 利用遗传算法,对所述神经网络模型的权值和阈值权值和阈值进行优化处理;
[0045] 将所述神经网络模型中输出的预测膜厚值与输入的膜厚值的差值满足训练精度要求时对应的权值和阈值,传输至神经网络模型,得到训练后的神经网络模型。
[0046] 根据本发明的第三方面,提供了一种脂润滑膜厚的确定装置,包括:存储器和处理器,其中,所述存储器存储可执行指令,所述可执行指令控制所述处理器进行操作以执行根据第一方面中的任何一项所述的脂润滑膜厚的确定方法。
[0047] 本发明的一个实施例的有益效果在于,可以快速准确地确定润滑过程中的膜厚,可以及时对润滑机制做出准确的判定,从而调整润滑参数或工况参数,使工件运行在良好的润滑范围内。
[0048] 通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。

附图说明

[0049] 被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
[0050] 图1是根据本发明一个实施例的脂润滑膜厚的确定方法的处理流程图。
[0051] 图2是利用训练后的神经网络模型预测得到的膜厚值和实际膜厚值的对比图。
[0052] 图3是根据本发明一个实施例的脂润滑膜厚的确定装置的结构示意图。
[0053] 图4示出了根据本发明一个实施例的脂润滑膜厚的确定装置的硬件结构示意图。

具体实施方式

[0054] 现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
[0055] 以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
[0056] 对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
[0057] 在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
[0058] 应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
[0059] <方法>
[0060] 图1是根据本发明一个实施例的脂润滑膜厚的确定方法的处理流程图。
[0061] 根据图1所示,脂润滑膜厚的确定方法至少包括以下步骤:
[0062] 步骤S1100,根据数值仿真算法确定多组不同输入参数下的膜厚值。
[0063] 该步骤S1100可具体包括以下步骤:
[0064] S1、利用获得的初始输入载荷值和膜厚方程得到第一膜厚值。
[0065] 本发明实施例中,获取摩擦副接触表面的初始最小接触间隙值,然后,将初始最小接触间隙值和初始输入载荷值输入至膜厚方程,得到膜厚值。
[0066] 膜厚方程具体为:
[0067]
[0068]
[0069]
[0070]
[0071] 其中,h0为摩擦副接触表面的初始最小接触间隙值,R为当量半径,R1、R2分别是摩擦副接触处的曲率半径,v(x,y)为摩擦副接触表面弹性变形方程,E′为当量弹性模量,E1、E2分别是摩擦副的弹性模量,v1、v2分别是摩擦副的泊松比,pt(s,t)为输入载荷值,h(x,y)为膜厚计算区域内某一待测点对应的膜厚值,s代表膜厚计算区域的x轴方向的计算区域的长度值,t代表膜厚计算区域的y轴方向的计算区域的长度值。
[0072] S2、利用所述第一膜厚值和雷诺方程得到润滑脂流体压力值,以及,利用所述第一膜厚值和微凸体接触应力模型方程得到微凸体接触压力值。
[0073] 本发明实施例中,获取润滑脂的流变指数值、润滑脂的初始密度值、润滑脂的初始黏度值、摩擦副的接触表面的表面粗糙度值和卷吸速率值,然后,将第一膜厚值、润滑脂的流变指数值、润滑脂的初始密度值、润滑脂的初始黏度值、摩擦副的接触表面的表面粗糙度值和卷吸速率值输入至雷诺方程,得到润滑脂流体压力值。
[0074] 雷诺方程具体为:
[0075]
[0076]
[0077]
[0078] 其中,n为润滑脂的流变指数,φx为与润滑脂流动方向平行的方向的流体压力指数值,φy与润滑脂流动方向垂直的方向的流体压力指数值,σ1、σ2为摩擦副的表面粗糙度值,ρ0为润滑脂的初始密度值,η0为润滑脂的初始黏度值,h为膜厚值,p为润滑脂流体压力值。
[0079] 本发明实施例中,利用雷诺方程得到润滑脂流体压力值p后,将润滑脂流体压力值p输入至润滑脂密度方程,得到润滑脂的密度。在进行下一次迭代处理时,将计算得到的润滑脂的密度替换上一次迭代处理中使用的润滑脂的密度。
[0080] 润滑脂密压方程如下:
[0081]
[0082] 其中,ρ0为润滑脂的初始密度值,A、B为常数,其中,A=0.6×10-9Pa-1,B=1.7×10-9Pa-1,PH为最大赫兹接触压力,p为润滑脂流体压力值。
[0083] 本发明实施例中,利用雷诺方程得到润滑脂流体压力值p后,将将润滑脂流体压力值p输入至润滑脂黏度方程,得到润滑脂的黏度。在进行下一次迭代处理时,将计算得到的润滑脂的黏度替换上一次迭代处理中使用的润滑脂的黏度。
[0084] 润滑脂黏度方程如下:
[0085]
[0086]
[0087] 其中,τlim为润滑脂的极限剪切应力,为润滑脂的剪应变率,η0为润滑脂的初始黏度值,z0为常数,通常取值0.68,p为润滑脂流体压力值。
[0088] 本发明实施例中,获取表面参数值、摩擦副的弹性模量值、微凸体曲率半径值、微凸体的高度值、摩擦副接触表面的平均间隙值、微凸体平均高度和表面平均高度的差值和硬度值。然后,将第一膜厚值、表面参数值、摩擦副的弹性模量值、微凸体曲率半径值、微凸体的高度值、摩擦副接触表面的平均间隙值、微凸体平均高度和表面平均高度的差值和硬度值输入至微凸体接触应力模型方程,得到微凸体接触压力值。
[0089] 微凸体接触应力模型方程具体如下,
[0090]
[0091] Kh=0.454+0.41ν—公式(5a),
[0092]
[0093]
[0094]
[0095]
[0096]
[0097]
[0098] 其中,pc为微凸体接触压力值,β是摩擦副的表面参数,通常取0.05,,v为摩擦副中的较软材料的泊松比,ωc为微凸体临界压缩变形量,E′为当量弹性模量,Hd为布氏硬度值,Ras为微凸体曲率半径,σ1、σ2为摩擦副的表面粗糙度值,h为膜厚值, 是微凸体平均高度和表面平均高度的差值,zs*为微凸体高度,φs*(zs*)为微凸体高度分布函数,服从高斯概率密度分布函数,即
[0099] 需要说明地是,公式(5g)中的α取值分别对应公式(5)中的1.5、1.425、1.263和1。
[0100] S3、利用所述润滑脂流体压力值、所述微凸体接触压力值和载荷平衡方程得到输入载荷值。
[0101] 载荷平衡方程如下:
[0102] ∫∫pdxdy+∫∫pcdxdy=∫∫ptdxdy—公式(6),
[0103] 其中,p为润滑脂流体压力值,pc为微凸体接触压力值,pt为输入载荷值。
[0104] S4、按照S1、S2和S3进行迭代处理,直至迭代前和迭代后的润滑脂流体压力值差值、迭代前和迭代后的微凸体接触压力值差值和迭代前和迭代后的输入载荷值的差值均小于预设差值为止,并将本次迭代处理得到的膜厚值作为所述初始输入载荷值对应的膜厚值。
[0105] 本发明实施例中,将利用公式(6)对应的载荷方程计算得到输入载荷值后,将输入载荷值再次输入值公式(1)对应的膜厚方程,得到膜厚值。将本次计算得到的膜厚值再次输入至公式(2)对应的雷诺方程,得到润滑脂流体压力值。将本次计算得到的膜厚值再次输入至公式(5)对应的微凸体接触应力模型方程,得到微凸体接触压力值。将计算得到的润滑脂流体压力值和微凸体接触压力值输入至公式(6)对应的载荷方程中,计算得到输入载荷值。然后,分别计算得到本次计算得到的润滑脂压力值和上一次计算得到的润滑脂压力值的差值、本次计算得到的微凸体接触压力值和上一次计算得到的微凸体接触压力值的差值、本次计算得到的输入载荷值和上一次计算得到的输入载荷值的差值。如果该三个差值均小于预设差值时,停止迭代处理,将本次迭代处理得到的膜厚值作为初始输入载荷值对应的膜厚值。
[0106] 步骤S1200,利用多组输入值和对应的膜厚值对神经网络模型进行训练和测试,得到训练后的神经网络模型,其中,输入值至少包括输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值。
[0107] 本发明实施例中,将多组输入值和对应的膜厚值输入至神经网络模型。利用遗传算法,对神经网络模型的权值和阈值进行优化处理。将神经网络模型中输出的预测膜厚值与输入的膜厚值的差值满足训练精度要求时对应的权值和阈值,传输至神经网络模型,得到训练后的神经网络模型。
[0108] 需要说明地是,输入至神经网络模型的输入至为量纲一化的输入值,即各输入值被摩擦副的表面粗糙度σ所量纲一化。
[0109] 本发明实施例中,将各输入值输入至神经网络模型之前,根据以下公式,对输入值进行归一化处理,
[0110]
[0111] 其中,xmax为各输入值中的最大值,xmin为各输入值中的最小值,xi为输入值中第i个数据,X为第i个数据归一化之后的值。以输入载荷值为例,xmax为各输入载荷值中的最大值,xmin为各输入载荷值中的最小值,xi为第i个输入载荷值。
[0112] 本发明实施例中,神经网络模型为BP(Back Propagation)神经网络模型。BP神经网络是一种多层前馈神经网络,该神经网络的主要特点是信号前向传递,误差反向传播。在前向传递中,输入信号从输入层经隐含层逐层处理,直至输出层,每一层的神经元状态只能影响下一层神经元状态,如果输出层得不到期望输出,则转入反向传播,根据预测误差调整网络权值和阈值,从而使BP神经网络预测输出不断逼近期望输出。
[0113] 遗传算法是将自然界优胜劣汰、适者生存的生物进化原理引入优化参数形成的编码串联群体中,按照所选则的适应度函数并通过遗传中的选择、交叉和变异对个体进行筛选,使适应度值好的个体被保留,适应度值差的被淘汰,新的群体即集成了上一代的信息,又优于上一代,这样反复循环,直至满足条件。
[0114] 遗传算法优化BP神经网络分为BP神经网络结构的确定、遗传算法优化和BP神经网络预测三个部分。
[0115] BP神经网络结构确定部分是根据拟合函数输入输出参数个数确定BP神经网络结构,进而确定遗传算法个体的长度。遗传算法优化是指使用遗传算法优化BP神经网络的权值和阈值,种群中的每个个体都包含了一个网络所有权值和阈值,个体通过适应度函数计算个体适应度值。遗传算法通过选择、交叉和变异操作找到最优适应度值对应个体。BP神经网络预测是利用遗传算法得到最优个体对神经网络初始权值和阈值赋值,网络训练后预测函数输出。
[0116] 图2是利用训练后的神经网络模型预测得到的膜厚值和实际膜厚值的对比图。
[0117] 根据图2所示,横坐标数值代表利用训练后的神经网络模型预测得到的膜厚值,纵坐标代表利用数值仿真算法计算得到的膜厚值。从图2中可以看出,利用训练后的神经网络模型预测得到的膜厚值与利用数值仿真算法计算得到的膜厚值基本一致。
[0118] 步骤S1300,将获得的当前输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值输入至训练后的神经网络模型,得到膜厚值。
[0119] 步骤S1400,输出膜厚值。
[0120] 根据本发明实施例提供的润滑脂膜厚的确定方法,可以快速准确地确定润滑过程中的膜厚,可以及时对润滑机制做出准确的判定,从而调整润滑参数或工况参数,使工件运行在良好的润滑范围内。
[0121] <装置>
[0122] 图3是根据本发明一个实施例的脂润滑膜厚的确定装置的结构示意图。根据图3所示,该装置至少包括:数值仿真计算模块310、神经网络训练模块320、神经网络计算模块330和输出模块340。
[0123] 数值仿真计算模块310用于根据数值仿真算法确定多组不同输入参数下的膜厚值。
[0124] 神经网络训练模块320用于利用多组输入值和对应的膜厚值对神经网络模型进行训练,得到训练后的神经网络模型,其中,输入值至少包括输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值。
[0125] 神经网络计算模块330用于将获得的当前输入载荷值、卷吸速率值、表面粗糙度值、材料参数值和硬度值输入至所述训练后的神经网络模型,得到膜厚值。
[0126] 输出模块340用于输出所述膜厚值。
[0127] 在本发明的一个实施例中,数值仿真计算模块310进一步用于S1、利用获得的初始输入载荷值和膜厚方程得到第一膜厚值;
[0128] S2、利用第一膜厚值和雷诺方程得到润滑脂流体压力值,以及,利用第一膜厚值和微凸体接触应力模型方程得到微凸体接触压力值;
[0129] S3、利用润滑脂流体压力值、微凸体接触压力值和载荷平衡方程得到输入载荷值;
[0130] S4、按照S1、S2和S3进行迭代处理,直至迭代前和迭代后的润滑脂流体压力值差值、迭代前和迭代后的微凸体接触压力值差值和迭代前和迭代后的输入载荷值的差值均小于预设差值为止,并将本次迭代处理得到的膜厚值作为初始输入载荷值对应的膜厚值。
[0131] 在本发明的一个实施例中,神经网络训练模块320进一步用于将多组输入值和对应的膜厚值输入至神经网络模型;利用遗传算法,对神经网络模型的权值和阈值进行优化处理;将神经网络模型中输出的预测膜厚值与输入的膜厚值的差值满足训练精度要求时对应的权值和阈值,传输至神经网络模型,得到训练后的神经网络模型。
[0132] 图4示出了根据本发明一个实施例的脂润滑膜厚的确定装置的硬件结构示意图。参见图4,该装置至少包括:存储器420和处理器410,其中,存储器420存储可执行指令,可执行指令控制处理器410进行操作以执行上述任何一项的脂润滑膜厚的确定方法。
[0133] 本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
[0134] 计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
[0135] 这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
[0136] 用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
[0137] 这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
[0138] 这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
[0139] 也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
[0140] 附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
[0141] 以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。