一种能量回收方法、系统、介质、装置及服务器转让专利

申请号 : CN202311517860.8

文献号 : CN117254570B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 刘育廷

申请人 : 苏州元脑智能科技有限公司

摘要 :

本申请公开了一种能量回收方法、系统、介质、装置及服务器,涉及服务器散热领域,用于解决马达降速过程中的能量流失问题。该方案中的能量回收装置包括直流电源、转换电路、储能装置和控制器。本申请中控制器可以根据目标需求来调整转换电路的工作模式,从而实现在降温需求时将直流电逆变为交流电,为马达供电;在散热需求不高,允许马达转速下降的时间点,可以启动能量回收机制将马达两端的反电动势进行升压并为储能装置充电。这样,通过控制转换电路的工作模式,可以在不需要大量散热需求时将能量进行回收,从而提高能源使用效率。

权利要求 :

1.一种能量回收方法,其特征在于,应用于能量回收装置中的控制器,所述能量回收装置还包括直流电源、转换电路及储能装置,所述直流电源通过所述转换电路与风扇中的马达连接,所述储能装置分别与所述直流电源和所述转换电路连接,所述能量回收方法包括:在确定目标需求是将系统降温时,控制所述转换电路工作在逆变模式,以将所述直流电源或所述储能装置输出的直流电逆变为交流电并为所述马达供电;

在确定所述目标需求是能量回收时,控制所述转换电路工作在升压模式,以将所述马达两端的反电动势进行升压并为所述储能装置充电;

在确定所述目标需求是能量回收时,控制所述转换电路工作在升压模式,以将所述马达两端的反电动势进行升压并为所述储能装置充电,包括:在确定所述目标需求是能量回收时,根据目标优化策略确定所述马达降速后的最终转速与从当前转速下降到所述最终转速的持续时间,并在所述持续时间内对所述马达的能量进行回收;

在所述持续时间内控制所述转换电路工作在升压模式,以将所述马达两端的反电动势进行升压并为所述储能装置充电;

所述目标优化策略的确定方式为:

获取服务器在预设时间段内的历史数据集,所述历史数据集包括多个时刻对应的历史数据,每个时刻对应的历史数据包括用于表征当前时刻所述服务器的状态和动作的数据,所述动作用于调节所述马达的转速;

根据所述历史数据集构建目标函数和神经网络模型,并根据所述历史数据集对所述神经网络模型进行训练;

若所述神经网络模型满足预设条件,则将满足所述预设条件的神经网络模型作为目标神经网络模型;

在确定所述目标需求是能量回收时,获取所述服务器的当前状态,并根据所述当前状态和所述目标神经网络模型确定目标优化策略。

2.如权利要求1所述的能量回收方法,其特征在于,在所述持续时间内控制所述转换电路工作在升压模式,以将所述马达两端的反电动势进行升压并为所述储能装置充电,包括:在所述持续时间内控制所述转换电路工作在升压模式,以使所述转换电路对所述马达两端的反电动势进行升压后的电压大于所述储能装置的输入电压,且所述升压后的电压与所述储能装置的输入电压的差值在预设范围内。

3.如权利要求1所述的能量回收方法,其特征在于,根据所述历史数据集对所述神经网络模型进行训练之后,还包括:在每次迭代过程中,获取所述神经网络模型输出的预测值;

判断所述预测值与所述目标函数的实际值的差值是否在第一阈值范围内;

若在所述第一阈值范围内,则判定所述神经网络模型满足所述预设条件;否则进入下一次迭代。

4.如权利要求3所述的能量回收方法,其特征在于,判断所述预测值与所述目标函数的实际值的差值是否在第一阈值范围内,包括:根据所述预测值和所述实际值计算损失函数的输出值;

判断所述损失函数的输出值是否在第二阈值范围内;

若在所述第二阈值范围内,则判定所述差值在所述第一阈值范围内。

5.如权利要求4所述的能量回收方法,其特征在于,判断所述损失函数的输出值是否在第二阈值范围内,包括:判断在连续若干次迭代过程中所述损失函数的输出值是否均在所述第二阈值范围内;

若在连续若干次迭代过程中所述损失函数的输出值均在所述第二阈值范围内,则判定所述差值在所述第一阈值范围内。

6.如权利要求4所述的能量回收方法,其特征在于,所述损失函数的表达式为:;

Loss为损失函数,x1为常数,且0≤x1≤1,s为当前时刻服务器的状态,a为当前时刻确定的动作,Qp(s,a)为所述神经网络模型输出的预测值,Q(s,a)为实际值。

7.如权利要求1所述的能量回收方法,其特征在于,所述目标函数的约束条件为:所述目标优化策略满足使所述服务器内的温度保持不变或下降。

8.如权利要求1所述的能量回收方法,其特征在于,所述历史数据中用于表征当前时刻所述服务器的状态的数据包括所述服务器当前时刻的系统功率数据、温度数据、马达转速数据。

9.如权利要求1‑8任一项所述的能量回收方法,其特征在于,还包括:预先建立所述服务器的状态‑动作‑奖励值的对应关系,所述奖励值与所述服务器内的温度呈负相关,且所述奖励值与将所述马达两端的反电动势进行升压并为所述储能装置充电的电量呈正相关;

根据所述历史数据集构建目标函数,包括:

根据所述历史数据集构建目标奖励函数。

10.如权利要求9所述的能量回收方法,其特征在于,所述目标奖励函数的表达式为:;

其中,s为当前时刻的服务器的状态,a为当前时刻确定的动作,s’为下一时刻的所述服务器的状态,a’为下一时刻确定的动作,Q(s,a)为在状态s下采取动作a所得到的奖励值,r为当前时刻已有的奖励值,Q(s’,a’)为在状态s’下采取动作a’所得到的奖励值,max为取最大值。

11.如权利要求9所述的能量回收方法,其特征在于,所述目标奖励函数的表达式为:;

其中,s为当前时刻的服务器的状态,a为当前时刻确定的动作,s’为下一时刻的所述服务器的状态,a’为下一时刻确定的动作,Q(s,a)为在状态s下采取动作a所得到的奖励值,r为当前时刻已有的奖励值,Q(s’,a’)为在状态s’下采取动作a’所得到的奖励值,max为取最大值,c为折扣因子。

12.如权利要求11所述的能量回收方法,其特征在于,根据所述历史数据集对所述神经网络模型进行训练,包括:在每次迭代过程中,将当前时刻的历史数据和下一时刻中用于表征所述服务器的状态的数据输入至所述神经网络模型,触发所述神经网络模型根据所述当前时刻的历史数据、下一时刻用于表征所述服务器的状态的数据和所述对应关系确定各个动作对应的下一时刻的预测奖励值;

确定各个下一时刻的所述预测奖励值中的下一时刻的最大预测奖励值;

根据下一时刻的所述最大预测奖励值和所述目标奖励函数计算所述神经网络模型输出的与当前时刻对应的预测奖励值;

根据与所述当前时刻对应的预测值和当前时刻的实际奖励值确定所述神经网络模型是否满足所述预设条件。

13.一种能量回收系统,其特征在于,应用于能量回收装置中的控制器,所述能量回收装置还包括直流电源、转换电路及储能装置,所述直流电源通过所述转换电路与风扇中的马达连接,所述储能装置分别与所述直流电源和所述转换电路连接,所述能量回收系统包括:供电单元,用于在确定目标需求是将系统降温时,控制所述转换电路工作在逆变模式,以将所述直流电源或所述储能装置输出的直流电逆变为交流电并为所述马达供电;

能量回收单元,用于在确定所述目标需求是能量回收时,控制所述转换电路工作在升压模式,以将所述马达两端的反电动势进行升压并为所述储能装置充电;

所述能量回收单元,包括:

策略确定单元,用于在确定所述目标需求是能量回收时,根据目标优化策略确定所述马达降速后的最终转速与从当前转速下降到所述最终转速的持续时间,并在所述持续时间内对所述马达的能量进行回收;

电路控制单元,用于在所述持续时间内控制所述转换电路工作在升压模式,以将所述马达两端的反电动势进行升压并为所述储能装置充电;

还包括:

获取单元,用于获取服务器在预设时间段内的历史数据集,所述历史数据集包括多个时刻对应的历史数据,每个时刻对应的历史数据包括用于表征当前时刻所述服务器的状态和动作的数据,所述动作用于调节所述马达的转速;

构建单元,用于根据所述历史数据集构建目标函数和神经网络模型,并根据所述历史数据集对所述神经网络模型进行训练;

模型确定单元,用于在所述神经网络模型满足预设条件时,则将满足所述预设条件的神经网络模型作为目标神经网络模型;

目标优化策略确定单元,用于在确定所述目标需求是能量回收时,获取所述服务器的当前状态,并根据所述当前状态和所述目标神经网络模型确定目标优化策略。

14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被控制器执行时实现如权利要求1‑12任一项所述的能量回收方法的步骤。

15.一种能量回收装置,其特征在于,包括控制器、直流电源、转换电路及储能装置,所述直流电源通过所述转换电路与风扇中的马达连接,所述储能装置分别与所述直流电源和所述转换电路连接,所述控制器分别与所述转换电路和所述马达连接;

所述控制器在执行计算机程序时用于实现如权利要求1‑12任一项所述的能量回收方法的步骤。

16.如权利要求15所述的能量回收装置,其特征在于,所述储能装置为电容。

17.如权利要求15所述的能量回收装置,其特征在于,所述转换电路为三相桥式电路。

18.如权利要求15‑17任一项所述的能量回收装置,其特征在于,所述直流电源的输出正端分别与所述储能装置的正端和所述转换电路的正端连接,所述直流电源的输出负端分别与所述储能装置的负端和所述转换电路的负端连接,所述能量回收装置还包括:防倒灌装置,设于所述直流电源的输出正端和所述储能装置的正端之间,所述防倒灌装置用于在将所述直流电源输出的直流电逆变为交流电并在为所述马达供电时导通,在将所述马达两端的反电动势进行升压并在为所述储能装置充电时截止。

19.如权利要求18所述的能量回收装置,其特征在于,所述防倒灌装置包括场效应管和二极管,所述场效应管的源极分别与所述直流电源的输出正端和所述二极管的阳极连接,所述场效应管的漏极分别与所述储能装置的正端和所述二极管的阴极连接,所述场效应管的栅极与驱动所述场效应管的驱动电路连接;

所述场效应管在将所述直流电源输出的直流电逆变为交流电并在为所述马达供电时导通,在将所述马达两端的反电动势进行升压并在为所述储能装置充电时截止。

20.一种服务器,其特征在于,包括如权利要求15‑19任一项所述的能量回收装置。

说明书 :

一种能量回收方法、系统、介质、装置及服务器

技术领域

[0001] 本申请涉及服务器散热领域,特别涉及一种能量回收方法、系统、介质、装置及服务器。

背景技术

[0002] 在服务器系统中,散热风扇的主要作用是通过将空气流动到器件上,将器件产生的热量带走,而风扇的转速控制则是根据各器件的温度升高程度来调节的。当服务器系统的负载较高时,各器件会产生较多的热量,此时需要增加风扇的转速来提供更大的空气流动,以降低器件的工作温度。当系统处于空闲或低负载状态时,服务器系统中器件产生的热量较少,如果风扇在这种情况下继续以较高的转速工作,会导致额外的噪音和能源浪费,因此在服务器系统的负载减小时,通常会降低风扇的转速。
[0003] 然而,在风扇转速降低的过程中,部分能量会自然消散或转化成热能,或以其他形式流失。这会导致能源使用效率的降低。也即,降低风扇转速时消耗的能源并没有完全转化为对服务器系统散热的效果,而是以其他方式流失了。

发明内容

[0004] 本申请的目的是提供一种能量回收方法、系统、介质、装置及服务器,控制器可以根据目标需求来调整转换电路的工作模式,从而实现在系统降温需求时将直流电逆变为交流电,为马达供电;在能量回收需求时,储能装置不会对马达提供电能,所以马达的转速降低。而此时可将马达两端的反电动势进行升压并为储能装置充电。这样,通过控制转换电路的工作模式,可以在系统降温需求较低的时候将能量进行回收,从而提高能源使用效率。
[0005] 为解决上述技术问题,本申请提供了一种能量回收方法,应用于能量回收装置中的控制器,所述能量回收装置还包括直流电源、转换电路及储能装置,所述直流电源通过所述转换电路与风扇中的马达连接,所述储能装置分别与所述直流电源和所述转换电路连接,所述能量回收方法包括:
[0006] 在确定目标需求是系统降温时,控制所述转换电路工作在逆变模式,以将所述直流电源或所述储能装置输出的直流电逆变为交流电并为所述马达供电;
[0007] 在确定所述目标需求是能量回收时,控制所述转换电路工作在升压模式,以将所述马达两端的反电动势进行升压并为所述储能装置充电。
[0008] 在一种实施例中,在确定所述目标需求是能量回收时,控制所述转换电路工作在升压模式,以将所述马达两端的反电动势进行升压并为所述储能装置充电,包括:
[0009] 在确定所述目标需求是能量回收时,根据目标优化策略确定所述马达降速后的最终转速与从当前转速下降到所述最终转速的持续时间,并在所述持续时间内对所述马达的能量进行回收;
[0010] 在所述持续时间内控制所述转换电路工作在升压模式,以将所述马达两端的反电动势进行升压并为所述储能装置充电。
[0011] 在一种实施例中,在所述持续时间内控制所述转换电路工作在升压模式,以将所述马达两端的反电动势进行升压并为所述储能装置充电,包括:
[0012] 在所述持续时间内控制所述转换电路工作在升压模式,以使所述转换电路对所述马达两端的反电动势进行升压后的电压大于所述储能装置的输入电压,且所述升压后的电压与所述储能装置的输入电压的差值在预设范围内。
[0013] 在一种实施例中,所述目标优化策略的确定方式为:
[0014] 获取服务器在预设时间段内的历史数据集,所述历史数据集包括多个时刻对应的历史数据,每个时刻对应的历史数据包括用于表征当前时刻所述服务器的状态和动作的数据,所述动作用于调节所述马达的转速;
[0015] 根据所述历史数据集构建目标函数和神经网络模型,并根据所述历史数据集对所述神经网络模型进行训练;
[0016] 若所述神经网络模型满足预设条件,则将满足所述预设条件的神经网络模型作为目标神经网络模型;
[0017] 在确定所述目标需求是能量回收时,获取所述服务器的当前状态,并根据所述当前状态和所述目标神经网络模型确定目标优化策略。
[0018] 在一种实施例中,根据所述历史数据集对所述神经网络模型进行训练之后,还包括:
[0019] 在每次迭代过程中,获取所述神经网络模型输出的预测值;
[0020] 判断所述预测值与所述目标函数的实际值的差值是否在第一阈值范围内;
[0021] 若在所述第一阈值范围内,则判定所述神经网络模型满足所述预设条件;否则进入下一次迭代。
[0022] 在一种实施例中,判断所述预测值与所述目标函数的实际值的差值是否在第一阈值范围内,包括:
[0023] 根据所述预测值和所述实际值计算损失函数的输出值;
[0024] 判断所述损失函数的输出值是否在第二阈值范围内;
[0025] 若在所述第二阈值范围内,则判定所述差值在所述第一阈值范围内。
[0026] 在一种实施例中,判断所述损失函数的输出值是否在第二阈值范围内,包括:
[0027] 判断在连续若干次迭代过程中所述损失函数的输出值是否均在所述第二阈值范围内;
[0028] 若在连续若干次迭代过程中所述损失函数的输出值均在所述第二阈值范围内,则判定所述差值在所述第一阈值范围内。
[0029] 在一种实施例中,所述损失函数的表达式为:
[0030] ;
[0031] Loss为损失函数,x1为常数,且0≤x1≤1,s为当前时刻服务器的状态,a为当前时刻确定的动作,Qp(s,a)为所述神经网络模型输出的预测值,Q(s,a)为实际值。
[0032] 在一种实施例中,所述目标函数的约束条件为:所述目标优化策略满足使所述服务器内的系统温度保持不变或下降。
[0033] 在一种实施例中,所述历史数据中用于表征当前时刻所述服务器的状态的数据包括服务器当前时刻的系统功率数据、温度数据、马达转速数据。
[0034] 在一种实施例中,还包括:
[0035] 预先建立所述服务器的状态‑动作‑奖励值的对应关系,所述奖励值与所述服务器内的温度呈负相关,且所述奖励值与将所述马达两端的反电动势进行升压并为所述储能装置充电的电量呈正相关;
[0036] 根据所述历史数据集构建目标函数,包括:
[0037] 根据所述历史数据集构建目标奖励函数。
[0038] 在一种实施例中,所述目标奖励函数的表达式为:
[0039] ;
[0040] 其中,s为当前时刻的服务器的状态,a为当前时刻确定的动作,s’为下一时刻的所述服务器的状态,a’为下一时刻确定的动作,Q(s,a)为在状态s下采取动作a所得到的奖励值,r为当前时刻已有的奖励值,Q(s’,a’)为在状态s’下采取动作a’所得到的奖励值,max为取最大值。
[0041] 在一种实施例中,所述目标奖励函数的表达式为:
[0042] ;
[0043] 其中,s为当前时刻的服务器的状态,a为当前时刻确定的动作,s’为下一时刻的所述服务器的状态,a’为下一时刻确定的动作,Q(s,a)为在状态s下采取动作a所得到的奖励值,r为当前时刻已有的奖励值,Q(s’,a’)为在状态s’下采取动作a’所得到的奖励值,max为取最大值,c为折扣因子。
[0044] 在一种实施例中,根据所述历史数据集对所述神经网络模型进行训练,包括:
[0045] 在每次迭代过程中,将当前时刻的历史数据和下一时刻中用于表征所述服务器的状态的数据输入至所述神经网络模型,触发所述神经网络模型根据所述当前时刻的历史数据、下一时刻用于表征所述服务器的状态的数据和所述对应关系确定各个动作对应的下一时刻的预测奖励值;
[0046] 确定各个下一时刻的所述预测奖励值中的下一时刻的最大预测奖励值;
[0047] 根据下一时刻的所述最大预测奖励值和所述目标奖励函数计算所述神经网络模型输出的与当前时刻对应的预测奖励值;
[0048] 根据与所述当前时刻对应的预测值和当前时刻的实际奖励值确定所述神经网络模型是否满足所述预设条件。
[0049] 为解决上述技术问题,本申请还提供了一种能量回收系统,应用于能量回收装置中的控制器,所述能量回收装置还包括直流电源、转换电路及储能装置,所述直流电源通过所述转换电路与风扇中的马达连接,所述储能装置分别与所述直流电源和所述转换电路连接,所述能量回收系统包括:
[0050] 供电单元,用于在确定所述目标需求是系统降温时,控制所述转换电路工作在逆变模式,以将所述直流电源输出的直流电逆变为交流电并为所述马达供电;
[0051] 能量回收单元,用于在确定所述目标需求是能量回收时,控制所述转换电路工作在升压模式,以将所述马达两端的反电动势进行升压并为所述储能装置充电。
[0052] 为解决上述技术问题,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被控制器执行时实现如上述所述的能量回收方法的步骤。
[0053] 为解决上述技术问题,本申请还提供了一种能量回收装置,包括控制器、直流电源、转换电路及储能装置,所述直流电源通过所述转换电路与风扇中的马达连接,所述储能装置分别与所述直流电源和所述转换电路连接,所述控制器分别与所述转换电路和所述马达连接;
[0054] 所述控制器在执行计算机程序时用于实现如上述所述的能量回收方法的步骤。
[0055] 在一种实施例中,所述储能装置为电容。
[0056] 在一种实施例中,所述转换电路为三相桥式电路。
[0057] 在一种实施例中,所述直流电源的输出正端分别与所述储能装置的正端和所述转换电路的正端连接,所述直流电源的输出负端分别与所述储能装置的负端和所述转换电路的负端连接,所述能量回收装置还包括:
[0058] 防倒灌装置,设于所述直流电源的输出正端和所述储能装置的正端之间,所述防倒灌装置用于在将所述直流电源输出的直流电逆变为交流电并在为所述马达供电时导通,在将所述马达两端的反电动势进行升压并在为所述储能装置充电时截止。
[0059] 在一种实施例中,所述防倒灌装置包括场效应管和二极管,所述场效应管的源极分别与所述直流电源的输出正端和所述二极管的阳极连接,所述场效应管的漏极分别与所述储能装置的正端和所述二极管的阴极连接,所述场效应管的栅极与驱动所述场效应管的驱动电路连接;
[0060] 所述场效应管在将所述直流电源输出的直流电逆变为交流电并在为所述马达供电时导通,在将所述马达两端的反电动势进行升压并在为所述储能装置充电时截止。
[0061] 为解决上述技术问题,本申请还提供了一种服务器,包括如上述所述的能量回收装置。
[0062] 本申请提供了一种能量回收方法、系统、介质、装置及服务器,涉及服务器散热领域,用于解决风扇马达降速过程中的能量流失问题。该方案中的能量回收装置包括直流电源、转换电路、储能装置和控制器。本申请中控制器可以根据目标需求来调整转换电路的工作模式,从而实现在降温需求时将直流电逆变为交流电,为马达供电;在能量回收需求时储能装置不会对马达提供电能,所以马达的转速降低。而此时可将马达两端的反电动势进行升压并为储能装置充电。这样,通过控制转换电路的工作模式,可以在系统降温需求较低的时候将能量进行回收,从而提高能源使用效率。

附图说明

[0063] 为了更清楚地说明本申请实施例中的技术方案,下面将对现有技术和实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0064] 图1为本申请提供的一种能量回收装置的结构框图;
[0065] 图2为本申请提供的一种能量回收方法的流程图;
[0066] 图3为本申请提供的一种神经网络模型优化的流程图;
[0067] 图4为本申请提供的一种马达的转速降低的示意图;
[0068] 图5为本申请提供的一种能量回收系统的示意图;
[0069] 图6为本申请提供的一种计算机可读存储介质的示意图。

具体实施方式

[0070] 本申请的核心是提供一种能量回收方法、系统、介质、装置及服务器,控制器可以根据目标需求来调整转换电路的工作模式,从而实现在降温需求时将直流电逆变为交流电,为马达供电;在能量回收需求时储能装置不会对马达提供电能,所以马达的转速降低。而此时可将马达两端的反电动势进行升压并为储能装置充电。这样,通过控制转换电路的工作模式,可以在系统降温需求较低的时候将能量进行回收,从而提高能源使用效率。
[0071] 为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
[0072] 本申请提供了一种能量回收方法,应用于能量回收装置(如图1所示)中的控制器,能量回收装置还包括直流电源11、转换电路13及储能装置12,直流电源11通过转换电路13与风扇中的马达连接,储能装置12分别与直流电源11和转换电路13连接。图1中右侧的Vemf为马达降速时产生的反电动势,Vemf和电感组合为马达的等效电路。
[0073] 在图1的基础上,如图2所示,能量回收方法包括:
[0074] S1:在确定目标需求是系统降温时,控制转换电路13工作在逆变模式,以将直流电源11或储能装置12输出的直流电逆变为交流电并为马达供电;
[0075] 本步骤中描述的是在确定目标需求为降温时,说明服务器系统中的负载可能较高,各器件产生了大量的热量。为了降低器件的工作温度,需要增加风扇的转速,以提供更大的空气流动。在这种情况下,控制器会指示转换电路13工作在逆变模式,逆变模式下的转换电路13将直流电源11或储能装置12输出的直流电逆变为交流电,并为风扇中的马达供电。逆变模式下,转换电路13会通过逆变操作将直流电转换为交流电,以适配风扇中马达所需的电源类型。
[0076] 通过这样的操作,能量回收装置可以将直流电源11或储能装置12储存的能量转化为风扇所需的交流电能,从而增加风扇的转速,提供更大的空气流动,提高散热效果,降低服务器系统的工作温度。
[0077] 进一步的,在直流电源11供电时,直流电源11输出的直流电也可以为储能装置12供电。
[0078] S2:在确定目标需求是能量回收时,控制转换电路13工作在升压模式,以将马达两端的反电动势进行升压并为储能装置12充电。
[0079] 在该步骤中,若确定目标需求是能量回收,如在服务器的负载小于预设值时,确定目标需求为能量回收,否则确定目标需求为降温。在进行能量回收时,转换电路13将直流电源11通过逆变操作转化为交流电并为风扇马达供电,同时将马达两端产生的反电动势进行升压。这样做的目的是为了将马达的功率转化为电能,并将该电能储存到储能装置12中。在能量回收过程中,马达的转速会降低,马达所需的电能也减少,因此控制转换电路13工作在升压模式可以提供足够的电压以保证马达正常运转,并且将多余的电能转存到储能装置12中。通过这种方式,能够回收并利用原本在转速降低过程中流失的能源,也即针对风扇输出的反电动势进行能量回收,从而实现能源的最大化利用和能效的提高。
[0080] 储能装置12的作用是存储能量,通常采用电池、超级电容器等装置。在本阶段,升压后的电能通过转换电路13充电至储能装置12中。这样,当需要额外能量供应时,可以从储能装置12中释放能量,提高能源利用效率。
[0081] 转换电路13可以为三相桥式电路,那么可以具体控制转换电路13中的开关管和马达等效电路中的电感形成Boost电路(升压斩波器),以对Vemf进行升压。
[0082] 在一种实施例中,在确定目标需求为能量回收时,控制转换电路13工作在升压模式,以将马达两端的反电动势进行升压并为储能装置12充电,包括:
[0083] 在确定目标需求为能量回收时,根据目标优化策略确定马达降速后的最终转速与从当前转速下降到最终转速的持续时间,并在持续时间内对马达的能量进行回收;
[0084] 在持续时间内控制转换电路13工作在升压模式,以将马达两端的反电动势进行升压并为储能装置12充电。
[0085] 本实施例在确定目标需求是能量回收,即通过控制转换电路将马达两端的反电动势进行升压,并将能量储存到储能装置中。为了实现这个目标,需要确定马达降速后的最终转速与从当前转速下降到最终转速的持续时间,并在持续时间内对马达的能量进行回收。
[0086] 首先,根据目标优化策略,需要确定马达降速后的最终转速和持续时间。这可以通过分析马达当前负载和速度来确定。目标是尽可能高效地将马达的能量回收到储能装置12中,因此需要在不影响整体系统性能的前提下,降低马达的转速,并在降速过程中持续一定时间进行能量回收。
[0087] 在持续时间内,控制转换电路13工作在升压模式。这意味着转换电路13将马达两端的反电动势进行升压,使其达到储能装置12的充电要求。升压模式使得反电动势的电压升高,以可靠的为储能装置12充电,同时转换电路13还负责将能量传输到储能装置12中,确保能量能够有效地储存起来。
[0088] 在一种实施例中,在持续时间内控制转换电路13工作在升压模式,以将马达两端的反电动势进行升压并为储能装置12充电,包括:
[0089] 在持续时间内控制转换电路13工作在升压模式,以使转换电路13对马达两端的反电动势进行升压后的电压大于储能装置12的输入电压,且升压后的电压与储能装置12的输入电压的差值在预设范围内。
[0090] 在一种实施例中,控制转换电路13对马达两端的反电动势进行升压,并为储能装置12充电。具体来说,在持续时间内来控制转换电路13的工作模式,使其工作在升压模式。在升压模式下,转换电路13对马达两端的反电动势的电压进行升压。为了确保升压后的电压能够有效为储能装置12充电,设定了一个条件,即升压后的电压与储能装置12的输入电压的差值在预设范围内,这个预设范围可以根据设计要求和应用需求进行确定。
[0091] 通过该方法,可以有效利用马达的反电动势来为储能装置12充电。当马达的转速减小时,控制转换电路13自动切换至升压模式,将反电动势进行升压并存储到储能装置12中,这样可以实现能量的回收和储存,提高整个系统的能量利用效率和节能效果。
[0092] 如图3所示,在一种实施例中,目标优化策略的确定方式为:
[0093] 获取服务器在预设时间段内的历史数据集,历史数据集包括多个时刻对应的历史数据,每个时刻对应的历史数据包括用于表征当前时刻服务器的状态和动作的数据,动作用于调节马达的转速;
[0094] 根据历史数据集构建目标函数和神经网络模型,并根据历史数据集对神经网络模型进行训练;
[0095] 若神经网络模型满足预设条件,则将满足预设条件的神经网络模型作为目标神经网络模型;
[0096] 在马达的转速降低时,获取服务器的当前状态,并根据当前状态和目标神经网络模型确定目标优化策略。
[0097] 本实施例描述了一种确定目标优化策略的方式。这种方式首先获取服务器在预设时间段内的历史数据集,历史数据集包括多个时刻对应的历史数据,其中每个时刻的历史数据用于表征当前时刻服务器的状态和动作的数据,其中动作是用于调节马达的转速。接下来,根据历史数据集构建目标函数和神经网络模型,并使用历史数据集对神经网络模型进行训练。这意味着使用历史数据集中的输入和输出数据来训练神经网络模型,使其能够根据当前状态和目标进行预测和优化。如果训练后的神经网络模型满足预设条件,即模型的性能达到一定要求,则将满足预设条件的神经网络模型作为目标神经网络模型,用于确定目标优化策略。最后,在马达的转速降低并且开始启动动能回收时,获取服务器的当前状态,并根据当前状态和目标神经网络模型确定目标优化策略。这意味着根据实时收集到的服务器当前状态和目标神经网络模型预测的目标,确定如何调整马达的转速以实现更好的能量回收效果。
[0098] 图3中的目标优化策略为基于训练完成的目标神经网络模型得到的。执行目标动作之后服务器的工作环境包括对应的s和a数据(s为当前时刻服务器的状态,a为当前时刻确定的动作),将其存储至重播记忆体(是一个用于存储数据的存储模块)中。
[0099] 通过这种方式,能够根据历史数据和神经网络模型预测的目标来确定优化策略,从而实现更有效的能量回收方法。
[0100] 在一种实施例中,根据所述历史数据集对所述神经网络模型进行训练之后,还包括:
[0101] 在每次迭代过程中,获取神经网络模型输出的预测值;
[0102] 判断预测值与目标函数的实际值的差值是否在第一阈值范围内;
[0103] 若在第一阈值范围内,则判定神经网络模型满足预设条件;否则进入下一次迭代。
[0104] 本实施例描述了一种确定神经网络模型是否满足预设条件的过程。该过程主要包括以下几个步骤:在每次迭代过程中,获取神经网络模型输出的预测值,这意味着在每一次运行神经网络模型之后,会获得一个预测结果,该结果可用来评估模型的准确性;判断预测值与目标函数的实际值的差值是否在第一阈值范围内,在这一步骤中,将使用目标函数的实际值与神经网络模型输出的预测值进行比较,通过计算二者之间的差值,可以评估模型的准确性;若在第一阈值范围内,则判定满足预设条件,这意味着如果预测值与目标函数的实际值的差值在预设的阈值范围内,那么可以认为神经网络模型满足预设条件,符合准确性要求,否则进入下一次迭代;如果预测值与目标函数的实际值的差值不在预设的阈值范围内,说明模型的准确性不符合要求,在这种情况下,需要对神经网络模型进行进一步的训练或调整,然后再次进行预测和判断;这个过程可以反复进行,直到神经网络模型满足预设条件。
[0105] 本实施例的目的是通过判断神经网络模型的准确性是否达到预设要求,以确保模型能够有效地实现目标优化策略的确定。通过这种方式,能够提高能量回收装置的效率和性能,并实现对储能装置12的有效充电。
[0106] 在一种实施例中,判断预测值与目标函数的实际值的差值是否在第一阈值范围内,包括:
[0107] 根据预测值和实际值计算损失函数的输出值;
[0108] 判断损失函数的输出值是否在第二阈值范围内;
[0109] 若在第二阈值范围内,则判定差值在第一阈值范围内。
[0110] 本实施例描述的是关于判断预测值与目标函数的实际值的差值是否在第一阈值范围内的方法。具体来说,该方法包括:步骤1:根据预测值和实际值计算损失函数的输出值,损失函数用于衡量预测值和目标函数实际值之间的差距,预测值是神经网络模型输出的结果,实际值是目标函数的实际值;步骤2:判断损失函数的输出值是否在第二阈值范围内,第二阈值是预先设定的一个门槛,用于判断损失函数的输出值是否接近期望的范围,如果损失函数的输出值在第二阈值范围内,那么可以认为预测值和实际值之间的差距较小;步骤3:如果损失函数的输出值在第二阈值范围内,则判定差值在第一阈值范围内,第一阈值范围是用于判断预测值和目标函数实际值之间差距的门槛值,如果损失函数的输出值在第二阈值范围内,那么可以认为预测值和目标函数实际值之间的差距在预设的第一阈值范围内。
[0111] 通过使用这种判断差值是否在第一阈值范围内的方法,可以有效地评估神经网络模型的预测性能,从而确定是否满足预设条件。
[0112] 在一种实施例中,判断损失函数的输出值是否在第二阈值范围内,包括:
[0113] 判断在连续若干次迭代过程中损失函数的输出值是否均在第二阈值范围内;
[0114] 若在连续若干次迭代过程中损失函数的输出值均在第二阈值范围内,则判定差值在第一阈值范围内。
[0115] 本实施例描述了判断损失函数的输出值是否在第二阈值范围内的方法。具体而言,提到在连续若干次迭代过程中,需要判断损失函数的输出值是否都在第二阈值范围内。如果在这些迭代过程中,损失函数的输出值都在第二阈值范围内,那么可以判断差值(即预测值与目标函数实际值之间的差距)在第一阈值范围内。
[0116] 这样的判断方式可以用来确定神经网络模型是否满足预设条件,从而选择是否使用该神经网络模型作为目标神经网络模型。在本技术方案中,通过历史数据集和神经网络模型的训练,确定了一个目标神经网络模型。
[0117] 对于这种判断方法,可以通过设定合适的第二阈值范围来控制模型的精度要求。如果损失函数的输出值都在第二阈值范围内,则说明模型的预测能力较好,可以认为差值在第一阈值范围内,即预测值与目标函数实际值之间的差距相对较小。这样的判断结果可以用来评估目标优化策略的有效性,从而指导实际操作中的决策和控制。
[0118] 在一种实施例中,损失函数的表达式为:
[0119] ;
[0120] Loss为损失函数,x1为常数,且0≤x1≤1,s为当前时刻服务器的状态,a为当前时刻确定的动作,Qp(s,a)为神经网络模型输出的预测值,Q(s,a)为实际值。
[0121] 在训练神经网络模型时,采用梯度下降法来最小化损失函数的值,从而调整神经网络模型的参数使得其能够更准确地预测目标值。因此,在每次迭代过程中,需要计算该损失函数对于神经网络模型参数的导数,并将其作为梯度下降的方向,不断调整神经网络模型参数。通过多轮的迭代过程,模型逐渐收敛达到最优状态,以便于后续能够准确地预测服务器的状态并确定相应的动作。
[0122] 该损失函数的表达式中,要求计算预测值与目标函数对应的实际值之间的平方误差。这个平方误差可以衡量神经网络模型预测值与目标函数对应的实际值之间的距离,从而能够指导神经网络模型不断地调整自己的参数以逼近真实值。在表达式中加入常数x1的原因是为了控制该误差对神经网络模型的影响程度,x1的取值通常在0.1到0.9之间,本实施例中x1取值0.5,可以针对具体问题进行调整。
[0123] 综上,本实施例中描述了一种基于损失函数的训练方法,能够优化神经网络模型的参数,从而提高其对于服务器状态和动作的预测精度,进而确定更加准确的能量回收优化策略。
[0124] 如图4所示,马达从转速rpm1降速到rpm2时,中间斜率为角加速度。风扇马达在降速的过程中可以回收多少能量。可以由以下电气转矩能量公式(1)得知,J是转子与上面重量负载的惯性质量。(3)、(4)分别由角速度 推导出(2)角速度的角加速度 的值。
[0125] (1);
[0126] 为马达速度增大时产生的转矩。
[0127] (2);
[0128] (3);
[0129] (4);
[0130] 为t2时刻对应的角速度, 为t1时刻对应的角速度。
[0131] 而风扇马达如果在降速的状态下能量回收可以表达如下:
[0132] (5), 为回收的功率。
[0133] (6);
[0134] (7);
[0135] 因为(6)的 是由反电动势产生功率(也即回收的功率), 是负载转距,这个也会消耗功率所以负号表示。而(7)电阻消耗功率 是由马达线圈绕组的电阻与通过其绕组的三相电流 组成。因为 是消耗功率所以负号表示, 为绕组上的电阻。如此可以推导出(8)的能量回收公式。
[0136] (8),为回收的能量。
[0137] 其中 是转子机械性转动产生的功率, 是转子上机械性转动消耗的功率。是绕组上的电阻消耗的功率。从(8)的能量回收公式来看,回收能量的大小与 (时间t1下降到t2的角加速度)和平均角速度 有关。如果风扇的马达速度下降比较快虽然 会比较大,动能回收产生的正功率会比较多。可是平均角速度 也会变大,让
机械性消耗的功率也会比较大。所以需要使用动能回收的目标神经网络模型 Qp(s,a)根据s(state)服务器的状态,如系统功率,系统温度,风扇转速…来决定下降目标时间(t2‑t1)与下降的目标转速 让 的值最佳化。以达到最佳的动能回收效果。可以回收多少动能,则可以将风扇转速下降的目标时间(t2‑t1)与下降的目标转速 所得到 值代入(8)公式,就可以得到回收的能量大小。而回收的能量越大,奖励值也会越高。
[0138] 在一种实施例中,目标函数的约束条件为:目标优化策略满足使服务器内的温度保持不变或下降。
[0139] 本实施例是关于目标函数的约束条件的描述。在这种实施例中,目标函数的约束条件是使服务器内的温度保持不变或下降。即,在确定目标优化策略时,需要考虑服务器的温度作为一个重要的因素。
[0140] 为了将目标函数的约束条件考虑进去,可以获取服务器的当前状态:这可以包括服务器内部的温度数据、工作状态以及其他相关参数。这些信息可以通过传感器等设备来获取。然后根据当前状态和目标神经网络模型确定目标优化策略:根据服务器的当前状态以及预先训练好的目标神经网络模型,可以确定最佳的优化策略。这种策略应当能够满足使服务器内的温度保持不变或下降的约束条件。最后根据目标优化策略,可以调节马达的转速来实现所需的控制。通过调整转速,可以影响风扇的运行情况,从而影响服务器内的温度。
[0141] 通过将目标函数的约束条件考虑进去,这种能量回收装置的控制器可以更加智能地运作,以实现能量回收的同时保持服务器的稳定运行温度。这对于提高能源利用效率和保护服务器的运行状态具有重要意义。
[0142] 在一种实施例中,历史数据中用于表征当前时刻服务器的状态的数据包括服务器当前时刻的系统功率数据、温度数据、马达转速数据。
[0143] 本实施例中,历史数据中用于表征服务器的状态的数据包括服务器的系统功率数据、温度数据和马达转速数据。系统功率数据是指服务器在特定时刻的功率消耗情况。这可以通过监测服务器的电流和电压来获取。系统功率数据的变化可以反映出服务器的工作负载和能量消耗情况。温度数据是服务器在不同部件和环境中的温度变化情况。可以使用传感器来测量服务器内部和外部环境的温度。温度数据可以反映服务器的热量分布和散热性能,从而了解它的能耗和散热需求。马达转速数据是指驱动风扇的马达旋转速度,它可以通过传感器来测量。马达转速数据可以反映风扇的工作状态和风量输出,进而推断出服务器的散热效果和能耗水平。
[0144] 这些数据被收集和记录下来,并用于构建目标函数和神经网络模型。这些模型和函数可以根据历史数据提供的信息来预测服务器状态和控制策略。这样,通过分析和优化这些状态数据,可以实现根据服务器的实际情况进行能量回收和优化控制的目标。
[0145] 在一种实施例中,还包括:
[0146] 预先建立服务器的状态‑动作‑奖励值的对应关系,奖励值与服务器内的温度呈负相关,且奖励值与将马达两端的反电动势进行升压并为储能装置12充电的电量呈正相关;
[0147] 根据历史数据集构建目标函数,包括:
[0148] 根据历史数据集构建目标奖励函数。
[0149] 本实施例中,首先需要预先建立服务器的状态‑动作‑奖励值的对应关系。这意味着在实施该能量回收方法时,需要根据服务器的不同状态和采取的不同动作来评估奖励值。具体而言,奖励值与服务器内的温度呈负相关,奖励值与将马达两端的反电动势进行升压并为储能装置12充电的电量呈正相关。更进一步地,根据历史数据集构建的目标奖励函数包含了旨在通过控制转换电路13将马达两端的反电动势进行升压并为储能装置12充电的过程中,最大化奖励值的优化目标。
[0150] 如,一种服务器状态下的奖励的对应关系如表1所示,表1为一种服务器状态和奖励值的对应关系表:
[0151] 表1
[0152]
[0153] 具体地,在能量回收的时候,为了使系统的温度(具体可以为系统中重要器件的温度)不上升,这里也可以让Qp(s,a)根据s(state)服务器系统功率,系统温度,风扇转速来决定下降的目标。服务器系统功率如果呈现下降趋势的话,表示系统并不需要太多的功率消耗。散热的需求会下降。也表示在目前的风扇转速下,未来有更多降温的可能性。所以可以让风扇转速下降更多,可以让 值更高。回收更多的能量。如果服务器系统功率如果呈现持平趋势的话,就不要让风扇转速下降太多。以免系统的温度突然上升。如果服务器系统功率如果呈现上升趋势的话,表示目前散热需求增加。不适合让风扇降速,启动动能回收的功能。所以只要增加系统对系统状态s(state)服务器系统功率,系统温度,风扇转速的观察与r(reward)奖励目标的条件。让系统温度的奖励分数如表1,让系统温度上升得到的奖励分数为负数(扣分),让系统温度下降就可以得到正的奖励分数(加分),这样就可以让系统零件的温度不要上升的目标比让系统得到越多动能回收能量的目标的优先级还要高。
[0154] 因此,本实施例进一步完善了该能量回收方法的实施方式,通过预先建立状态‑动作‑奖励值的对应关系以及构建目标函数,可以更准确地控制转换电路13的工作方式,最大化马达两端反电动势的升压和储能装置12的充电,以有效提高能量回收效率。
[0155] 在一种实施例中,目标奖励函数的表达式为:
[0156] ;
[0157] 其中,s为当前时刻的服务器的状态,a为当前时刻确定的动作,s’为下一时刻的服务器的状态,a’为下一时刻确定的动作,Q(s,a)为在状态s下采取动作a所得到的奖励值,r为当前时刻已有的奖励值,Q(s’,a’)为在状态s’下采取动作a’所得到的奖励值,max为取最大值。
[0158] 该表达式的含义是,当前时刻的奖励值r加上下一时刻的最大奖励值max(Q(s',a')),作为采取当前动作a后所得到的总奖励值Q(s,a)。这样,通过选择使得总奖励值最大化的动作,可以优化能量回收策略,以最大化回收能量。
[0159] 这个目标奖励函数的表达式可以在历史数据集中进行计算和优化。通过对历史数据集进行训练,可以确定奖励函数中的参数,使得该奖励函数能够准确地评估不同状态下采取不同动作所得到的奖励值。这样,通过最大化总奖励值,能够确定最优的能量回收策略模型,从而提高能量回收效率。
[0160] 在一种实施例中,目标奖励函数的表达式为:
[0161] ;
[0162] 其中,s为当前时刻的服务器的状态,a为当前时刻确定的动作,s’为下一时刻的服务器的状态,a’为下一时刻确定的动作,Q(s,a)为在状态s下采取动作a所得到的奖励值,r为当前时刻已有的奖励值,Q(s’,a’)为在状态s’下采取动作a’所得到的奖励值,max为取最大值,c为折扣因子。
[0163] 本实施例相比于上述实施例引入了折扣因子c。这个折扣因子可以用来平衡当前和未来的奖励值,使得在计算奖励值时更加综合考虑了未来的回报。具体来说,折扣因子c可以控制奖励值的衰减速度,较大的折扣因子可以使得对未来奖励值的考虑更加重要,而较小的折扣因子则更加注重当前奖励值。
[0164] 通过引入折扣因子c,本实施例可以更好地实现能量回收策略的优化。在最大化回收能量的同时,还能有效控制服务器的温度,使其不上升过快。折扣因子的引入可以更好地平衡这两个目标的权衡,使得能量回收策略模型能够更加精确地计算出每个时刻的最优转速。
[0165] 在一种实施例中,根据历史数据集对神经网络模型进行训练,包括:
[0166] 在每次迭代过程中,将当前时刻的历史数据和下一时刻中用于表征服务器的状态的数据输入至神经网络模型,触发神经网络模型根据当前时刻的历史数据、下一时刻用于表征服务器的状态的数据和对应关系确定各个动作对应的下一时刻的预测奖励值;
[0167] 确定各个下一时刻的预测奖励值中的下一时刻的最大预测奖励值;
[0168] 根据下一时刻的最大预测奖励值和目标奖励函数计算神经网络模型输出的与当前时刻对应的预测奖励值;
[0169] 根据与当前时刻对应的预测值和当前时刻的实际奖励值确定神经网络模型是否满足预设条件。
[0170] 本实施例描述了一种对神经网络模型进行训练的方法。首先,在训练神经网络模型的每次迭代过程中,需要准备当前时刻的历史数据和下一时刻用于表征服务器状态的数据。然后,将当前时刻的历史数据和下一时刻的状态数据输入到神经网络模型中。通过这些输入,触发神经网络模型计算各个动作在下一时刻的预测奖励值。这里的动作是指调节马达转速的操作。接下来,从所有下一时刻的预测奖励值中选择具有最大预测奖励值的那个。也就是说,确定下一时刻的最优动作,以便在该时刻获得最大的预测奖励值。然后,根据下一时刻的最大预测奖励值和目标奖励函数的定义,计算神经网络模型输出的与当前时刻对应的预测奖励值。目标奖励函数用于评估当前动作对系统性能的贡献。最后,根据当前时刻的预测奖励值和实际奖励值的比较,确定神经网络模型是否满足预设条件。这个比较过程可以用来评估神经网络模型的训练效果,判断它是否能够准确地预测奖励值,并且是否能够达到预期的性能要求。
[0171] 总之,本实施例提供了一种基于历史数据和目标奖励函数的训练方法,通过训练神经网络模型来预测马达转速调节的最优动作,以实现能量回收装置的有效运行。这种训练方法可以提高系统的能量回收效率,并且能够适应不同的工作条件和需求。
[0172] 为解决上述技术问题,本申请还提供了一种能量回收系统,在图1的基础上,如图5所示,应用于能量回收装置中的控制器,能量回收装置还包括直流电源11、转换电路13及储能装置12,直流电源11通过转换电路13与风扇中的马达连接,储能装置12分别与直流电源11和转换电路13连接,能量回收系统包括:
[0173] 供电单元51,用于在确定所述目标需求是降温时,控制转换电路13工作在逆变模式,以将直流电源11或储能装置12输出的直流电逆变为交流电并为马达供电;
[0174] 能量回收单元52,用于在确定所述目标需求是能量回收时,控制转换电路13工作在升压模式,以将马达两端的反电动势进行升压并为储能装置12充电。
[0175] 在一种实施例中,能量回收单元52,包括:
[0176] 策略确定单元,用于在确定所述目标需求是能量回收时,根据目标优化策略确定马达降速后的最终转速与从当前转速下降到最终转速的持续时间,并在持续时间内对马达的能量进行回收;
[0177] 电路控制单元,用于在持续时间内控制转换电路工作在升压模式,以将马达两端的反电动势进行升压并为储能装置12充电。
[0178] 在一种实施例中,电路控制单元,具体用于在持续时间内控制转换电路工作在升压模式,以使转换电路13对马达两端的反电动势进行升压后的电压大于储能装置12的输入电压,且升压后的电压与储能装置12的输入电压的差值在预设范围内。
[0179] 在一种实施例中,还包括:
[0180] 获取单元,用于获取服务器在预设时间段内的历史数据集,历史数据集包括多个时刻对应的历史数据,每个时刻对应的历史数据包括用于表征当前时刻服务器的状态和动作的数据,动作用于调节马达的转速;
[0181] 构建单元,用于根据历史数据集构建目标函数和神经网络模型,并根据历史数据集对神经网络模型进行训练;
[0182] 模型确定单元,用于在神经网络模型满足预设条件时,则将满足预设条件的神经网络模型作为目标神经网络模型;
[0183] 目标优化策略确定单元在马达的转速降低时,获取服务器的当前状态,并根据当前状态和目标神经网络模型确定目标优化策略。
[0184] 在一种实施例中,还包括:
[0185] 预测值获取单元,用于在每次迭代过程中,获取所述神经网络模型输出的预测值;判断预测值与目标函数的实际值的差值是否在第一阈值范围内;若在第一阈值范围内,则判定神经网络模型满足预设条件;否则进入下一次迭代。
[0186] 在一种实施例中,预测值获取单元,具体用于根据预测值和实际值计算损失函数的输出值;判断损失函数的输出值是否在第二阈值范围内;若在第二阈值范围内,则判定差值在第一阈值范围内。
[0187] 在一种实施例中,预测值获取单元,具体用于根据预测值和实际值计算损失函数的输出值;判断在连续若干次迭代过程中损失函数的输出值是否均在第二阈值范围内;若在连续若干次迭代过程中损失函数的输出值均在第二阈值范围内,则判定差值在第一阈值范围内。
[0188] 在一种实施例中,损失函数的表达式为:
[0189] ;
[0190] Loss为损失函数,x1为常数,且0≤x1≤1,s为当前时刻服务器的状态,a为当前时刻确定的动作,Qp(s,a)为神经网络模型输出的预测值,Q(s,a)为实际值。
[0191] 在一种实施例中,目标函数的约束条件为:目标优化策略满足使服务器内的温度保持不变或下降。
[0192] 在一种实施例中,历史数据中用于表征当前时刻服务器的状态的数据包括服务器当前时刻的系统功率数据、温度数据、马达转速数据。
[0193] 在一种实施例中,还包括:
[0194] 对应关系建立单元,用于预先建立服务器的状态‑动作‑奖励值的对应关系,奖励值与服务器内的温度呈负相关,且奖励值与将马达两端的反电动势进行升压并为储能装置12充电的电量呈正相关;
[0195] 构建单元,具体用于根据历史数据集构建目标奖励函数和神经网络模型,并根据历史数据集对神经网络模型进行训练。
[0196] 在一种实施例中,目标奖励函数的表达式为:
[0197] ;
[0198] 其中,s为当前时刻的服务器的状态,a为当前时刻确定的动作,s’为下一时刻的服务器的状态,a’为下一时刻确定的动作,Q(s,a)为在状态s下采取动作a所得到的奖励值,r为当前时刻已有的奖励值,Q(s’,a’)为在状态s’下采取动作a’所得到的奖励值,max为取最大值。
[0199] 在一种实施例中,目标奖励函数的表达式为:
[0200] ;
[0201] 其中,s为当前时刻的服务器的状态,a为当前时刻确定的动作,s’为下一时刻的服务器的状态,a’为下一时刻确定的动作,Q(s,a)为在状态s下采取动作a所得到的奖励值,r为当前时刻已有的奖励值,Q(s’,a’)为在状态s’下采取动作a’所得到的奖励值,max为取最大值,c为折扣因子。
[0202] 在一种实施例中,构建单元,包括:
[0203] 函数和模型构建单元,用于根据历史数据集构建目标奖励函数和神经网络模型,[0204] 数据输入单元,用于在每次迭代过程中,将当前时刻的历史数据和下一时刻中用于表征服务器的状态的数据输入至神经网络模型,触发神经网络模型根据当前时刻的历史数据、下一时刻用于表征服务器的状态的数据和对应关系确定各个动作对应的下一时刻的预测奖励值;
[0205] 预测奖励单元,用于确定各个下一时刻的预测奖励值中的下一时刻的最大预测奖励值;
[0206] 计算预测奖励单元,用于根据下一时刻的最大预测奖励值和目标奖励函数计算神经网络模型输出的与当前时刻对应的预测奖励值;
[0207] 条件确定单元,用于根据与当前时刻对应的预测值和当前时刻的实际奖励值确定神经网络模型是否满足预设条件。
[0208] 对于能量回收系统的其他描述请参照上述实施例,本申请在此不再赘述。
[0209] 为解决上述技术问题,本申请还提供了一种计算机可读存储介质61,如图6所示,计算机可读存储介质61上存储有计算机程序62,计算机程序62被控制器执行时实现如上述的能量回收方法的步骤。
[0210] 对于计算机可读存储介质61的其他描述请参照上述实施例,本申请在此不再赘述。
[0211] 为解决上述技术问题,本申请还提供了一种能量回收装置,包括控制器、直流电源11、转换电路13及储能装置12,直流电源11通过转换电路13与风扇中的马达连接,储能装置
12分别与直流电源11和转换电路13连接,控制器分别与转换电路13和马达连接;
[0212] 控制器在执行计算机程序时用于实现如上述的能量回收方法的步骤。
[0213] 在一种实施例中,储能装置12为电容。
[0214] 电容是一种存储电能的装置,它由两个金属板和介质(例如氧化铝)组成,介质在两个金属板之间形成绝缘层。当电容连接到电源时,电场形成在金属板之间,使电荷在金属板上积累。
[0215] 通过使用电容作为储能装置12,这种能量回收装置具有高效能量储存和释放的特点。电容具有快速充放电速度和良好的电压稳定性,使其成为合适的储能装置12。此外,电容还具有长寿命、无需维护和较小的体积等优点。
[0216] 在一种实施例中,转换电路13为三相桥式电路。
[0217] 在一种实施例中,直流电源11的输出正端分别与储能装置12的正端和转换电路13的正端连接,直流电源11的输出负端分别与储能装置12的负端和转换电路13的负端连接,能量回收装置还包括:
[0218] 防倒灌装置,设于直流电源11的输出正端和储能装置12的正端之间,防倒灌装置用于在将直流电源11输出的直流电逆变为交流电并为马达供电时导通,在将马达两端的反电动势进行升压并为储能装置12充电时截止。
[0219] 本实施例进一步完善了能量回收装置的设计。在这种实施例中,储能装置12与三相桥式电路的桥臂并联,直流电源11与储能装置12并联,并添加了防倒灌装置。
[0220] 当风扇转速减小时,控制器会将三相桥式电路中的开关管调整为升压模式,此时风扇的运行会产生反电动势。防倒灌装置的作用是在为储能装置12充电时截止,防止反电动势倒灌至直流电源11,保护直流电源11的正常工作。换句话说,当风扇减速时,防倒灌装置会阻止反电动势逆向流向直流电源11,有效地提高了能源利用效率和系统的可靠性。
[0221] 在一种实施例中,防倒灌装置包括场效应管和二极管,场效应管的源极分别与直流电源11的输出正端和二极管的阳极连接,场效应管的漏极分别与储能装置12的正端和二极管的阴极连接,场效应管的栅极与驱动场效应管的驱动电路连接;
[0222] 场效应管在将直流电源11输出的直流电逆变为交流电并为马达供电时导通,在将马达两端的反电动势进行升压并为储能装置12充电时截止。
[0223] 本实施例限定了防倒灌装置包括场效应管和二极管。场效应管的源极分别与直流电源11的正极和二极管的阳极连接,场效应管的漏极分别与储能装置12的正极和二极管的阴极连接,场效应管的栅极与驱动场效应管的驱动电路连接。
[0224] 在为马达供电时,场效应管导通,允许直流电源11的电能流向马达。这样可以确保马达能够正常工作。同时,场效应管的导通状态使得二极管截止,防止电能从储能装置12逆流至直流电源11,从而防止倒灌现象发生。
[0225] 而在为储能装置12充电时,场效应管截止,阻止了直流电源11的电能流向储能装置12。通过截止场效应管,防倒灌装置确保了直流电源11不将电能输送到储能装置12中,而是通过马达与储能装置12之间的电压差,将反电动势升压为储能装置12进行充电。因此,防倒灌装置起到了防止电能逆流的作用,确保了储能装置12只在适当的时候进行充电,从而保证了能量回收装置的正常运行和性能。
[0226] 对于能量回收装置的其他描述,请参照上述实施例,本申请在此不再赘述。
[0227] 为解决上述技术问题,本申请还提供了一种服务器,包括如上述的能量回收装置。对于服务器的其他描述,请参照上述实施例,本申请在此不再赘述。
[0228] 还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的状况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0229] 对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其他实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。