应对天气酷热的较好方法是尽可能少地去做;这个道理连蜥蜴都知道,所以想让数据中心变得更冷的管理人员,采取过度的制冷措施只能是浪费能源。 然而还是有很多数据中心都在这么做,一直保持过多工作量和过度的制冷。在这个过程中,他们在浪费大量的电能,具有讽刺意味的是,这会导致**变暖和融化地球的较地冰盖。 磁带时代的冷却 数据中心的制冷历史可以追溯到20世纪50年代,当时磁带驱动器无法忍受高温和高湿环境,在通过穿孔卡时会粘在一起,致使系统崩溃。而我们虽然不再处于那个时代,但目前许多数据中心仍然有过度的冷却措施与不必要的冷却制度,一直将数据中心的环境温度严格控制在21°C(70°F)。 当ASHRAE(美国供暖学会,制冷与空调工程师协会)定义特定推荐的服务器入口温度后,现在设定为27°C(80°F)。如今事情开始改变,并增加了更广泛接受的可靠性套件。 如今,一些大规模数据中心注意到了这一点,并通过了运行在更高的温度的过程试验。但是,大多数的企业数据中心在此方面严重滞后。 2015年初,调查机构IDC在美国调查了404位数据中心经理,这些经理每人至少管理100台物理服务器,并拥有平均120万美元的IT预算。根据调查,75%的数据中心工作温度低于24℃,只有5%的数据中心工作在27℃或27℃以上。 这些数据中心设施的PUE(能源使用效率)为2.4至2.8之间,这意味着IT设备电源的电源消耗没有达到全部设备的60%至65%。 这两个结果令人**。IDC发现这些IT管理人员在冷却方面的支出预算为总预算的10%,在电力和冷却方面的预算为24%。因此,各公司每年在冷却方面的支出预算大部分可能是多余的。 其他要考虑的事实是,虽然高效的网络规模云服务提供商获得了媒体的关注,但他们只是**数据中心的一小部分。至少,目前**有一半以上的数据中心制冷过度。这些会影响**的碳排放,而这些都是需要改变的数据中心。 偏执狂,还是只是小心? 那么,为什么数据中心的温度还是那么低?关键设施咨询的伊恩?比特林是毫无疑问知道是恐惧驱使它:“这是偏执狂的想法,人们过度规避风险。” 而下面这种说法可能更加合理,至少有一项研究发现,提高空气入口温度实际上增加了冷却电能消耗。 施耐德电气高级研究分析师维克多?阿弗拉尔对一项研究进行了描述,他比较了芝加哥、迈阿密以及西雅图的数据中心在不同的温度下的冷却电能消耗量。“我们发现,**27℃的数据中心冷却耗费了更多的能源和资本开支。” 施耐德电气的研究即将公布,这个结果是与一个具有标准的冷水机组数据中心进行比较的,之所得出令人惊讶的结果,也可能与系统的复杂性有关。在较高的温度下,服务器风扇可以发挥作用,让周围的空气流动消耗了更多的电能。 技术选择 如果你看到这一点,你就需要知道你的技术选择。我们都是从使用传统空调压缩机的冷却设备,通常被称为“直接膨胀(DX)单元”来开始认识冷却系统的。 保持入口温度在24°C以下是偏执狂 在大多数地区,没有其他的方式来保持数据中心的低温,许多人仍然认为保持低温是必要的,在许多地方仍有DX与其他制冷方式混合,以保持数据中心较端条件。 如果用户拥有这样的数据中心,在考虑改变冷却技术之前,先要消减能源法案。ASHRAE指出用户可以提高服务器的入口空气温度,从而减少了冷却电能。但如果这样做,用户应该知道服务器的风扇将要做什么。 如果让入口温度上升到27°C,服务器后面的热通道温度将约为35°C。因此要确保所有连接器都在系统的前面,因为没有人考虑在热通道设计上花费更多的时间。 其次,任何冷却系统更有效地工作时,它是工作在高温差(时间差)。这有些稍微违反直觉,但其基本热力学的原则是热差越大,驱动力更大。 这就是为什么可以很好地遏制服务器背面出来的热风的原因,热通道遏制装置意味着冷却系统的工作就是冷却需要冷却的空气。 比特林表示,一旦用户完成这一切,其DX冷却系统会做更少的工作,就可以得到大约1.16的局部PUE(pPUE)。另外,冷冻水系统(其中制冷机组的冷却水分配使用)的pPUE可以下降到1.12。 不建议采用DX冷却技术 但你真的需要DX吗?根据ASHRAE发布的地图显示,**各地的气候足够凉爽.因此,外部空气可用于常年来冷却数据中心。美国大部分地区在此区域中,而在英国,其干球温度记录为34℃,较高湿球温度(蒸发)为23℃。 这就是“外部空气”冷却,“自然”的冷却或是“绝热”冷却。这些冷却意味着不使用空调。有时将外界空气过滤,直接通过数据中心(“直接”自由冷却),有时设置一个二级电路(“间接”自然冷却)。当外界温度较高时,加入水蒸发的冷却盘也是是必要的。 比特林表示,采取这些冷却措施可能让数据中心达到1.05的PUE,但也有一些并发症。一个问题是,PUE取决于数据中心的利用率。如果有闲置的服务器,这样可以提高效率,但绝热冷却有一个相反的趋势:“在部分负荷下,绝热变得更好,”他说。这意味着,如何负载**过一定阈值,追求更低的PUE可能适得其反。 PUE并不是一切 施耐德电气的阿弗拉认为:“PUE是数据中心行业评判能源效率的标准,但重要的是不要盲目追求PUE。”在他给的例子中,当服务器风扇关闭时,即使数据中心整体用于冷却电能消耗不断上升,其效率越来越差,数据中心PUE仍会下降。 阿弗拉尔警告说,绝热冷却套件可能会引发可用性的担忧。在实际的情况下,绝热单元通常又大又重,在改造老旧数据中心时会非常棘手。而新建的数据中心会尽量将其部署在屋顶上。 当服务器变得更加温暖时,其冷却问题看起来很复杂吗?这一切都归结为保持冷静的头脑和精确的计算。
词条
词条说明
随着科技的日益发达,机房中的精密空调也逐步升级,造价也越来越高,因此也更加需要加大维护力度。今天机房环境监控厂家北京金恒创新有限公司*就来简单介绍一下机房**精密空调的日常维护。 1、控制系统的维护 对空调系统的维护人员而言,第一步就是看空调系统是否在正常运行,因此我们首先要做以下的一些工作。 1)从空调系统的显示屏上检查空调系统的各项功能及参数是否正常; 2)如有报警的情况要检查报警记录,并分
精密空调制冷紧缩机排气过热,原因主要有以下几种:回气温度高、电机加热量大、紧缩比高、冷凝压力高、制冷剂挑选不妥。 (1)回气温度高 回气温度高低是相关于蒸腾温度为而言的。为了防止回液,一般回气管路都要求20°C的回气过热度。假如回气管路保温不好,过热度就远远追赶20°C。 回气温度越高,气缸吸气温度和排气温度就越高。回气温度每升高1°C,排气温度将升高1~1.3°C。 (2)电机加热 关于回气冷却
本方案适应于大楼空调系统故障导致机房内温、湿度升高等异常现象。 正常情况:温度:冬季:18~20±2℃夏季:18~23±2℃(温度变化率≤5℃/H)湿度:40~50±5% 空调系统故障导致机房内温、湿度升高或设备出现温度告警等异常现象时,执行以下步骤: **条:首先查看故障空调的位置和现象,联系物业空调组加紧维修。 *二条:如果故障较为严重,影响范围大,则立即汇报给机房维护负责人,并逐级向上汇报。
1、大风量 与相同制冷量的舒适性空调机相比,整体机房**精密空调机的循环风量约大一倍,相应的焓差只有一半,机房**精密空调机运行时通常不需要除湿,循环风量较大将使得机组在空气露点以上运行,不必要像舒适性空调机那样为应付湿负荷而不得不使空气冷却到露点以下,故机组可以通过提高制冷剂的蒸发温度提高机组运行的热效率,从而提高运行的经济性。根据经验,显热比为1.0的机组的单位制冷量的能耗仅是显热比为0.6的
公司名: 北京金恒创新科技有限公司
联系人: 鲁经理
电 话: 010-62104284
手 机: 13311468478
微 信: 13311468478
地 址: 北京海淀海淀北京市海淀区知春路豪景大厦B座十层
邮 编: 100086
公司名: 北京金恒创新科技有限公司
联系人: 鲁经理
手 机: 13311468478
电 话: 010-62104284
地 址: 北京海淀海淀北京市海淀区知春路豪景大厦B座十层
邮 编: 100086