一种绿色数据中心温度感知的服务器管理方法转让专利

申请号 : CN201610894774.2

文献号 : CN106507640B

文献日 :

基本信息:

PDF:

法律信息:

相似专利:

发明人 : 万剑雄张然张格菲

申请人 : 内蒙古工业大学

摘要 :

一种绿色数据中心温度感知的服务器管理方法,对数据中心能源消耗建模并设置约束条件,建模包括对服务器系统能耗建模和制冷系统能耗建模,约束条件包括用户服务质量约束和服务器温度约束,在所述约束条件下,使得服务器系统能耗和制冷系统能耗之和最小;本发明同时提供了具体的温度与服务器管理求解算法,与现有的绿色数据中心节能算法相比,本发明首先在能耗模型中包含了机房制冷系统,对数据中心总能耗实现了较为精细的刻画;其次,算法保证了用户服务质量和服务器CPU温度;最后,通过运用主分解技术,把数据中心整体能耗最小化问题分解为温度控制调节器和用户资源分配代理两部分,提出了可扩展性强的分布式算法,有效降低数据中心的总能耗。

权利要求 :

1.一种绿色数据中心温度感知的服务器管理方法,对数据中心能源消耗建模并设置约束条件,所述对数据中心能源消耗建模包括对服务器系统能耗建模和制冷系统能耗建模,所述约束条件包括用户服务质量约束和服务器温度约束,在所述约束条件下,使得服务器系统能耗和制冷系统能耗之和最小,其特征在于,将数据中心整体能耗最小化分为两个部分:温度控制调节器部分和用户资源分配代理部分;温度控制调节器是附加在制冷设备上的中央温度控制单元,决定冷空气的温度,并通过用户资源分配代理同步,每个用户都集成一个用户代理,为用户分配合适的服务器数量,同时将本地信息传输到温度控制调节器;在温度控制调节器端,首先选定冷空气的温度初始值,然后将其温度信息广播到所有的用户资源分配代理,每一个用户资源分配代理通过计算所需的服务器数量并将对偶变量返回给温度控制调节器,最后,温度控制调节器做出更新,直到目标函数收敛。

2.根据权利要求1所述绿色数据中心温度感知的服务器管理方法,其特征在于,所述对服务器系统能耗建模的模型公式为:其中,P为数据中心的服务器系统能耗,pj为一台服务器的工作负载即能耗,Lj为用户j的任务请求,mj为给用户j分配的服务器数量,a1为服务器CPU的边际能源消耗,a2为服务器除了CPU以外其它部件的能源消耗;

所述对制冷系统能耗建模的模型公式为:

SP c

C=cfρ(T -T)

其中,c为空气的比热容,f为空气流速,ρ为空气密度,TSP为数据中心机房室内温度,Tc为由空调进入服务器的冷空气温度。

3.根据权利要求1所述绿色数据中心温度感知的服务器管理方法,其特征在于,所述用户服务质量约束条件为:用户等待时间<=Dj;所述服务器温度约束条件为服务器CPU温度<=Tmax;其中Dj是服务等级协议中规定的用户平均响应时间上界,Tmax是服务器规定的最大CPU温度限制。

4.根据权利要求3所述绿色数据中心温度感知的服务器管理方法,其特征在于,所述用户等待时间表示为 Lj为用户j的任务请求,mj为给用户j分配的服务器数量,μ为任务的服务速率, s为服务器CPU的指令执行速率,Kj代表用户j任务请求中平均指令的个数;

所述服务器CPU温度表示为 Tc为进入的冷空气温度,pj为一台服务器的工作负载即能耗, Lj为用户j的任务请求,mj为给用户j分配的服务器数量,a1为服务器CPU的边际能源消耗,a2为服务器除了CPU以外其它部件的能源消耗,为热交换率。

5.根据权利要求1所述绿色数据中心温度感知的服务器管理方法,其特征在于,所述温度控制调节器端执行算法如下:

1:选取冷空气Tc初始值和常量步长α;

2:loop

3:向所有的用户资源分配代理广播

4:等待用户资源分配代理返回对偶变量λ;

5:根据 更新τ;

6:end loop;

所述用户资源分配代理端执行算法如下:

1:loop

2:等待温度控制调节器广播τ;

3:利用下式解决温度和服务器管理问题

4:确定服务器数

5:向温度控制调节器返回与约束条件相关的对偶变量;

6:end loop;

其中,Tc为由空调进入服务器的冷空气温度,Tmax是服务器规定的最大CPU温度限制,a1为服务器CPU的边际能源消耗,a2为服务器除了CPU以外其它部件的能源消耗,c为空气的比热容,f为空气流速,为热交换率,Lj为用户j的任务请求,Dj是服务等级协议中规定的用户平均响应时间上界,μ为任务的服务速率, s为服务器CPU的指令执行速率,Kj代表用户j任务请求中平均指令的个数,ωj表示温度和服务器管理问题的解。

说明书 :

一种绿色数据中心温度感知的服务器管理方法

技术领域

[0001] 本发明属于数据中心节能技术领域,特别涉及一种绿色数据中心温度感知的服务器管理方法。

背景技术

[0002] 目前包括社交,电子商务等一系列互联网服务正在经历空前发展,云计算技术在互联网发展过程中起到关键作用。许多的大规模数据中心作为云计算技术的基础设施,为各种形式的互联网服务提供了一个可靠且可扩展的平台。
[0003] 然而,大规模数据中心的运营暴露出无法忽略的问题——高能源消耗。据Greenbiz报道,谷歌、微软和Facebook等旗下一些拥有成千上万服务器的现代数据中心消耗的电力能源占到全球总体电力消耗的1%-3%。有文献指出,2005年到2010年,随着数据中心的不断发展,其总能源消耗增长了56%。数据中心动态最近的一项研究显示,数据中心电力能源消耗在2012年的增长量为原有的63%。因此,无论学术界还是工业界,对全球能源消耗管理的优化迫在眉睫。
[0004] 目前,已有一些技术致力于降低数据中心能耗。由于服务器资源利用率对于服务器能源消耗有重要影响,因此大多数技术在建立模型和设计算法时引入了对任务请求分发的管理。然而,这些技术的能源模型只考虑了服务器系统能源,忽略了机房制冷系统能源。
[0005] 制冷系统能源消耗占数据中心总能源消耗近一半。即使对于设计良好的数据中心,制冷系统产生的能耗也也能占到总能耗的37%。所以上述基于服务器管理与请求分发的技术均不足以降低数据中心的整体能源消耗。因此,需要设计一种数据中心资源管理算法,充分考虑机房空调的能耗,降低数据中心的总能耗。

发明内容

[0006] 为了克服上述现有技术的缺点,本发明的目的在于提供一种绿色数据中心温度感知的服务器管理方法,针对数据中心整体能耗最小化问题,在满足用户服务质量约束和服务器CPU温度约束的条件下,减少数据中心的能耗(包括服务器系统能源消耗和制冷系统能源消耗),从而解决了数据中心整体能耗最小化问题,达到构建绿色数据中心的目标。
[0007] 为了实现上述目的,本发明采用的技术方案是:
[0008] 一种绿色数据中心温度感知的服务器管理方法,对数据中心能源消耗建模并设置约束条件,所述对数据中心能源消耗建模包括对服务器系统能耗建模和制冷系统能耗建模,所述约束条件包括用户服务质量约束和服务器温度约束,在所述约束条件下,使得服务器系统能耗和制冷系统能耗之和最小。
[0009] 所述对服务器系统能耗建模的模型公式为:
[0010]
[0011] 其中,P为数据中心的服务器系统能耗,pj为一台服务器的工作负载即能耗,Lj为用户j的任务请求,mj为给用户j分配的服务器数量,a1为服务器CPU的边际能源消耗,a2为服务器除了CPU以外其它部件的能源消耗;
[0012] 所述对制冷系统能耗建模的模型公式为:
[0013] C=cfρ(TSP-Tc)
[0014] 其中,c为空气的比热容,f为空气流速,ρ为空气密度,TSP为数据中心机房室内温度,Tc为由空调进入服务器的冷空气温度。
[0015] 所述用户服务质量约束条件为:用户等待时间<=Dj;所述服务器温度约束条件为max max服务器CPU温度<=T ;其中Dj是服务等级协议中规定的用户平均响应时间上界,T 是服务器规定的最大CPU温度限制。
[0016] 与现有的绿色数据中心节能算法相比,本发明首先在能耗模型中包含了机房制冷系统,对数据中心总能耗实现了较为精细的刻画;其次,算法保证了用户服务质量和服务器CPU温度;最后,通过运用主分解技术,把数据中心整体能耗最小化问题分解为温度控制调节器和用户资源分配代理两部分,提出了可扩展性强的分布式算法,有效降低数据中心的总能耗。

附图说明

[0017] 图1是数据中心架构图。
[0018] 图2是温度与服务器管理框架整体结构图。

具体实施方式

[0019] 下面结合附图和实施例详细说明本发明的实施方式。
[0020] 问题描述:min服务器系统能耗+制冷系统能耗。
[0021] 服务质量约束:用户等待时间<=Dj。
[0022] 服务器温度约束:服务器CPU温度<=Tmax。
[0023] 决策变量:分配给用户的服务器数量,制冷系统送出的冷空气温度。
[0024] 其中Dj是服务等级协议中规定的用户平均响应时间上界,Tmax是服务器规定的最大CPU温度限制。
[0025] 本发明包括以下部分:
[0026] 1.数据中心能源消耗模型,包括以下几个部分:
[0027] A.服务器系统能耗模型描述:假设系统中有多个用户,其中用户j的任务请求为Lj,且为其分配的服务器数量为mj。一台服务器的能耗可用工作负载pj的线性函数表示,[0028]
[0029] 其中a1表示服务器CPU的边际能源消耗,a2表示服务器除了CPU以外其它部件的能源消耗。为用户j分配的服务器的能源消耗Pj可以表示为Pj=mj×pj=a1Lj+a2mj,则数据中心服务器系统的能源P为
[0030] B.制冷系统能耗模型描述:制冷机消耗的能源为 其中c代表空气的比热容(Joules/kg.K),f代表空气流速(m3/s),ρ代表空气密度(kg/m3)。COP即制冷机的性能系数,反映了制冷机的制冷效率,一般为常数。不失一般性,可假设COP=1,因此制冷系统的能源消耗为C=cfρ(TSP-Tc)。
[0031] C.数据中心能源消耗模型描述:数据中心的能源包括服务器系统能源和制冷系统能源两部分,可描述为P+C。
[0032] D.服务质量约束:数据中心模型中,同一用户的任务请求在同一任务队列中排队。可采用M/M/N排队模型对平均响应时间进行近似。M/M/N排队模型中,队列平均等待时间用表示,其中m是服务器的个数,PQ是队列非空的概率。在实际的数据中心中,服务器几乎一直处于工作状态,因此可认为PQ=1。令服务器CPU的指令执行速率为s(commands/second),可通过 将指令执行速率转换成任务的服务速率μ(request/second),其中Kj代表用户j任务请求中平均指令的个数。假设服务等级协定中规定的用户j的任务平均响应时间上界为Dj,则服务质量约束可以写成
[0033]
[0034] E.服务器温度约束:在稳定状态下,用户j的服务器温度可以由进入的冷空气温度Tc和服务器能耗pj决定,即
[0035]
[0036] 其中 (Kelvin.secs/Joules)代表热交换率。在实际数据中心中,为了保证服务器的可靠性,其温度必须维持在最大温度Tmax以下。将(1)代入(3)得,
[0037]
[0038] 2.精化的数据中心整体能耗最小化问题
[0039] 整理不等式(2)和(4),得到满足用户服务质量约束条件和服务器CPU温度约束条件的数据中心整体能耗最小化问题:
[0040]
[0041] 约束:
[0042]
[0043]
[0044] 3.问题分解
[0045] A.令 约束(7)变为
[0046] Tmj≥Lj,  (8)
[0047] 不等式(8)是关于T和mj的非线性函数,两边同时取对数得logT+logmj≥log Lj。
[0048] B.令log  T=τ,log  mj=ωj,数据中心整体能耗最小化问题转化为:
[0049] 约束:τ+ωj≥log Lj,
[0050] 去掉常量,以上问题可变形为
[0051]
[0052] 约束:
[0053] τ+ωj≥log Lj,  (10)
[0054]
[0055] C.显然,如果τ已经确定,那么(9)-(11)式能够被分解,因此τ是一个耦合变量。本发明采用一种基于主分解技术的分布式算法求解上述问题。算法可分为两个层次。在低层次上,定义温度感知设备分配问题:
[0056]
[0057] 约束:
[0058] τ+ωj≥log Lj,  (13)
[0059]
[0060] 温度和服务器管理问题的解如下:
[0061]
[0062] 在高层次上,定义温度调整问题: 温度调整问题可采用次梯度算法求解。一个可行的次梯度为 其中λj是与不等式(13)相关的
对偶变量。τ根据
[0063]
[0064] 更新,αν代表第ν次迭代的步长,在实际操作中可使用常量步长。
[0065] 4.温度和服务器管理算法设计
[0066] 基于上述主分解技术,设计温度与服务器管理算法。将数据中心整体能耗最小化算法分为两个部分:温度控制调节器部分和用户资源分配代理部分。温度控制调节器是附加在制冷设备上的中央温度控制单元,决定冷空气的温度,并通过用户资源分配代理同步。每个用户都集成一个用户代理,为用户分配合适的服务器数量,同时将本地信息传输到温度控制调节器。服务器与温度管理算法的整体结构框架如附图2所示。在温度控制调节器端,首先选定冷空气的温度初始值,然后将其温度信息广播到所有的用户资源分配代理。每一个用户资源分配代理通过(15)计算所需的服务器数量并将对偶变量λj返回给温度控制调节器。最后,温度控制调节器根据(16)做出更新,直到目标函数收敛。
[0067] 具体算法如下:
[0068] 算法1温度与服务器分布式管理算法:温度控制器端
[0069] 1:选取冷空气Tc初始值和常量步长α;
[0070] 2:loop
[0071] 3:向所有的用户资源分配代理广播
[0072] 4:等待用户资源分配代理返回对偶变量λ;
[0073] 5:根据 更新τ;
[0074] 6:end loop。
[0075] 算法2温度与服务器分布式管理算法:用户资源分配代理端
[0076] 1:loop
[0077] 2:等待温度控制调节器广播τ;
[0078] 3:利用下式解决(12)-(14)温度和服务器管理问题
[0079]
[0080] 4:确定服务器数
[0081] 5:向温度控制调节器返回与约束条件(13)相关的对偶变量;
[0082] 6:end loop。