- 云计算数据中心规划与设计
- 李劲
- 3165字
- 2020-06-24 18:56:58
3.3 能效模型评估
3.3.1 能效定义
《中华人民共和国节约能源法》指出,所谓节能是指加强用能管理,采取技术上可行、经济上合理以及环境和社会可以承受的措施,减少从能源生产到消费各个环节中的损失和浪费,更加有效、合理地利用能源。因此,现代意义的节约能源并不是简单地减少使用能源,降低生活品质,而应该是提高能效,降低能源消耗,也就是“该用则用、能省则省”。能效,即能源效率,一般是指在能源利用中,发挥作用的能源量与实际消耗的能源量之比。从数据中心运营及使用角度看,数据中心的能效可以广义地定义为数据中心服务器所执行的运算任务与任务执行过程中所耗费的总能量之比。
3.3.2 数据中心能耗结构
数据中心是能够容纳多个计算机或服务器及与之配套的通信和存储设备的多功能建筑物,它包含一整套的复杂设施,如电源保障系统、环境控制设备、安全装置等。相比于传统的机房,数据中心具有高密度、规模化、高可靠性和运营方式灵活的特点。随着云计算的快速发展,数据中心越来越成为信息存储、处理的重要载体。与一般的建筑设施不同,为了保证计算机系统的安全可靠运行,数据中心能耗一般能达到同样面积的办公楼的100~200倍,如此大的耗电量使能耗管理成为数据中心设计者和运营商需要考虑的重要问题。能耗管理的主要目的是提高能源使用的效率和降低所有与能耗相关的经济及环境代价,具体来说,数据中心的业主关心能耗带来的投资及运营成本,而社会及政府则需要关注高能耗对环境的影响。
一个典型的数据中心主要由冷水机组、室内空调、供配电系统、IT设备及照明等几个部分消耗电能,其中,核心的IT设备,包括计算、存储、网络等,约消耗整个数据中心30%的能耗,而配套及保障设施需要消耗其他约70%的电能。这些配套设施中,为保证IT设备运行所需的温度、湿度环境而使用的制冷设备、室内空调等耗能最多,约占整个数据中心能耗的30%~50%,而用于满足IT设备电压、电流要求及保证供电安全可靠性的UPS及配电单元等电源设备需要消耗约20%~25%的电能。
3.3.3 能耗影响因素
影响数据中心能耗的因素很多,包括数据中心的环境影响、设备运行过程中的能源损耗、为保障IT设备安全可靠运行的冗余设备的能源消耗,以及能源管理的效率等。
1.设备能源损耗
数据中心的设备能源损耗主要来源于两个部分,第一部分是UPS的转换损耗,通常UPS在负载较高时转换效率为88%~94%,最新的飞轮UPS和高效UPS在正常工作时可作为UPS的旁路,使得总体的转换效率提高到97%。
另外,过长的电力线缆在传输时也会产生不可忽略的损耗,如电缆长度大于100m时,损耗可能高达1%~3%。
空调同样带来效率的降低,一种情况是如果机架距离空调较远时,空调风扇需要增大功率,同时如果冷通道过长,冷热空调混合的机会也会增大,这样会严重降低空调的效率。另一种情况是大型机房采用的冷水主机,通常冷冻水的温度接近10℃,如此低的温度很容易引起空调主机的结露现象,从而降低空调效率。
2.低效的能源使用
冷却机组和室内空调是数据中心能耗的重要部分,温度设置过低、气流组织设计不合理都会导致能耗的浪费。
数据中心设计时需要合理配置冷气流输送和热气流排放口的位置、气流组织模式,以及冷热气流的温度。冷却机组输送的冷气与IT设备产生的热气流需要相互隔离,互不干扰。如果冷热气流交汇,那么冷气机组就需要消耗额外的电能用于热气流的降温。
目前绝大多数机房的设置温度为20℃,以确保IT设备不会因过热而宕机。2011年美国采暖、制冷与空调工程师学会(ASHRAE)发布了第3版最新设备的温湿度环境建议标准。
ASHRAE建议数据中心的操作温度在18℃~27℃范围内。据估计数据中心的设置温度每降低1℃,将会多消耗2%~4%的电能,假设IT设备在室温27℃环境下与在20℃环境下运行状况相同,那么将环境温度设为20℃就会浪费约20%的能耗。
3.降低能耗的主要措施
美国谷歌公司根据其数据中心建设的十几年经验,总结了降低数据中心能耗的4项措施。
(1)气流组织:尽量减少热气流与尚未经过设备的冷气流的混合,室内机到工作点的路径尽可能短,从而减少传输损耗。
(2)提高冷通道温度:可将冷通道的温度从18℃~20℃提升到27℃,更高的冷通道温度可提高冷冻水的温度,从而减少主机的工作时间。
(3)利用自然冷却技术:例如,冷却塔采用自然蒸发散热的模式,可以极大地降低冷水机组的耗能。谷歌在比利时的机房甚至100%利用自然冷却技术。
(4)高性能UPS:配电设备是数据中心高耗能设施之一,降低配电设备的能耗一是要尽量提高电源转化的效率,减少电压电流转换带来的损耗,例如,利用新型飞轮UPS可以将电源转换效率从普通的90%提高到97%;二是尽量缩短高压电源到设备的传输距离以减少线路损耗,例如,采用给每个服务器配置12V直流UPS可以将能耗效率提高到99.99%。
3.3.4 数据中心能效评价标准
1.基础设施能效
国际上目前比较通行的衡量数据中心能效的指标是PUE和DCiE,其计算公式为:
PUE=数据中心总耗电/IT设备耗电
DCiE=1/PUE=IT设备耗电/数据中心总耗电
在这两个指标中,IT设备耗电被认为是“有意义”的电能,PUE值越高表示该数据中心的能效越低。
2.设备能效
尽管PUE定义了数据中心基础设施的能效,但是IT设备自身的能效并未考虑在内。例如,服务器的核心功能是运算和存储,而数据中心输入到每个服务器电能并不是100%应用到运算及存储模块上,通常电源、稳压模块和内部风扇占据了服务器20%以上的能耗。
服务器的能效(SPUE)可以用类似PUE的方法来衡量,即服务器输入电量与有效耗电量之比。其中,有效耗电量是指与运算直接相关的服务器部件,包括主板、CPU、磁盘、内存、输入输出等,但不包含服务器内电源、稳压模块及内部风扇等的能耗。据绿色网格组织统计,SPUE一般为1.6~1.8,因为服务器电源效率约为80%,而绝大多数主板使用的稳压模块有超过30%的能源损耗。
3.负载能效
数据中心运营的最终目的是提供计算及应用服务,然而,通常服务器不运行应用程序或处于待机状态时依然要消耗电能,换言之,服务器有用部件所消耗的电能也并非全部“有意义”。由于服务器能耗会随计算负荷的变化而改变,对于终端应用层次服务器能效(LPUE)的测算需要考虑不同计算负荷下能耗的变化。目前国内、国际对不同负载下服务器能效的评估方法有很多研究,但没有统一的标准,因此采用国际权威IT测试组织SPEC发布的统计性能评价基准测试结果是目前可行的一种方法。利用不同服务器平台运行一个标准的应用程序,并对其系统负荷对比,从而排除软件效能对于能耗的影响,关注服务器硬件本身负荷和能耗之间的关系。
3.3.5 综合能效评估模型
综上所述,数据中心的能效评价包含3个层次:基础设施、IT设备、服务器负载,严格意义上的能效应该能够体现数据中心所有应用服务所消耗的负载耗能与数据中心的总耗能的关系。
由此,数据中心能效可定义为:
能效(E)=负载耗电/总耗电
受能效控制要求、设施条件等的限制,不同的数据中心可以根据各自的情况决定能效评价的粒度,采用不同的评估指标,如下公式所示:
能效(E)=负载耗电/总耗电=1/PUE(负载耗电=IT设备耗电)
能效(E)=负载耗电/总耗电=(1/PUE)×(1/SPUE)(负载耗电=服务器有效部件耗电)能效(E)=负载耗电/总耗电=(1/PUE)×(1/SPUE)×(计算耗电/服务器有效部件耗电)(负载耗电=计算耗电)
统计资料在强调低PUE值以外,更着重介绍了如何定制服务器,减少不必要的组件,从而提高IT设备能效。随着云计算产业的不断发展,服务器负载均衡、基于负载的能效评价等也都逐渐成为国内外研究的热点,这些都表明数据中心的能耗管理已经从仅仅关注PUE向综合能效评估转变。
从国外先进数据中心的设计经验来看,模块化和集装箱式机房由于采取冷通道封闭、科学设计气流组织,使用列间空调缩短冷空气传输距离及列间UPS缩短电源传输距离,相比于传统机房能效大大提高。同时,由于其模块化的特点,还可在小范围内采用提高冷通道温度等措施,从而直接降低PUE值。另外,模块化的设计有利于在能耗管理中根据服务器负载情况局部调整服务器环境,避免不必要的能耗。