鐠猴拷閻炴稏鍎插﹢涓�2闁汇劌瀚幁顐f媴閹剧粯瀵㈤柍銉︽煛閳ь剚姊归崼锟犳嚊閿濆應鍋撳鍛樊闂佽姤顭終闁挎稑鑻妶浠嬪触閸涘﹥鏆柟闈涚С缁ㄣ劑宕℃繝鍌氼潬闁稿⿵鎷�鐠猴拷闁哄棙鍨垫禍锝夋嚃閻樺搫鍓柡鍕尭閸ゎ參姊婚鈧。浠嬫晬鐎圭挶fespace闁烩晛锕﹂弫鎾绘嚕鐏炶棄绨诲ù锝囧У婢э箓鏌呴悩韫樊閹兼潙鍢查妶浠嬪灳濠婂棗浜栭柍銉︾箖閳ь剨鎷�鐠猴拷濡絾鐗曢崹閬嶅箑瑜忛~鏍儘閺冣偓閸ㄦ岸寮稿⿰鎰獥闁告牗銇為崥顐も偓瑙勭箖閻忔岸鎮介悢鍝勨挅缂佷胶鍋熺划锟犳煀閸涘﹥鏆柛鐘插殫IE婵炲矁宕甸弸鐔煎极閸喓浜�鐠猴拷缂佸鍨甸鐔煎箮閵堝牆鈧粙寮ㄩ懡銈嗘闁挎稒宀稿▔锟�4闂佹彃绉垫慨銏ゆ嚃濠靛浂妲荤紒顕€鈧稓鑹惧☉鎾亾闂婎剦鍋嗗▓鎴﹀磻閵夈儳鏆旈梺顐㈠€风粭澶屸偓鐟扮秺閺佸﹥娼婚敓锟�鐠猴拷閻熸瑱缍侀弨锝夌叕椤愶絾缍忕紒鐙呯磿閹﹪寮弶鍟冾參宕濋崠锛勭獥lifespace閻忓繐绻楅幗鎴︽嚈閹殿喗鎶勯柣銏㈠枙瀵宕濋埡鈧紞妯尖偓鍦仧楠炲洨绮旈幋婵愬妳闂婎剦鍋呭ḿ妤冪不閿涘嫭鍊�鐠猴拷濠碘€冲€风紞宥囩矓閹存繍鍔呴梻鍕Х椤㈠懘鎳橀崒锔惧惞濞戞挾绮晶锔藉緞閳哄啫濮ч柟瀛樺姇閸ㄥ酣鎯冮崟顔肩亰闁谎勫劤閻g偟鐥€圭姷婀哥紒淇卞灪濞叉悂鎳楃捄鐑樻妱濞存粌妫滆濞戞搫鎷�鐠猴拷闁哄嫬妫滈崥妯荤▔椤撶偞绂囬悹褍鍚€缁楁繂鈽夊☉宕囩獥缁惧彞绀侀悽顐﹀及椤栨艾鏋庨柡浣哄瀹撲線鎯冮崟顒佷粯濞达絽鍟块悺銊╁磼閵娿倗鐭欓悹鎰舵嫹鐠猴拷濠碘€冲€风紞宥嗘櫠閻愭彃绻侀柛蹇撶Ф閺屽懘宕濆☉宕囧惞婵箍鍊涢崵鏇㈠磹瀹ュ懍娣柧鏂款儑濞呇呭垝婢跺ǹ鍋ㄩ柦鈧妷銉ユ倠闁哄鍎埀顒佺矊婵亪寮ㄩ悜鈹惧亾閿燂拷鐠猴拷Canalys閻犲鍟伴悥娲晬濮橆偉鍘柛銉﹀灊缁辨帗绋夊顒夊殸濞存粌绨肩粭鍌涚閹寸姵鐣遍梻鍥e亾婵懓鍊风划娑㈡倿閺堢數绉甸弶鈺嬫嫹鐠猴拷濠⒀呭仜缁犳瑧鎼鹃敓锟�30% 闁告绨肩拹鐔哥▔婵犲懐娈�2023闁归潧顑嗗┃鈧柛鎴︾細閹伙綁鏌岃箛姘4000濞戞挸娲崕锟�
您现在的位置:首页 > 滚动 > 正文
阿尔法特CTO赵宁凡:数据中心制冷要实现与实际需求的最佳匹配
发表时间:2017年9月12日 20:14 来源:厂商供稿 责任编辑:麒麟

由于数据的爆炸式增长,以及云服务、大数据对IT基础设施提出的新的挑战,数据中心正在向大型化、集中化等方向发展,传统数据中心建设模式,也正逐渐的被模块化、高密度所替代。数据中心已经不再是简单的"数据仓库",已成为数据交互、信息处理和数据分析的数据综合管理平台。

随着数据中心面积、规模的增加,数千甚至上万台IT设备同时在线,产生了大量的热量和电力消耗,制冷和降耗成为了数据中心面临的最大挑战。

为了给数据中心规划、建设和运维管理提供一些有益的经验,中国IDC圈记者采访了深圳市阿尔法特网络环境有限公司(简称阿尔法特)CTO赵宁凡先生。据悉,赵宁凡是国内资深制冷空调专家,有丰富的阅历、经验和很多开创性的成果。早在上世纪90年代就已经从事模块化制冷技术、磁悬浮制冷技术、自然冷却技术、一次泵变流量技术等先进高效制冷技术的研究,是国内最早从事这些新技术研究的专家,有很多项技术发明。赵宁凡也使阿尔法特成为中国最早从事数据中心微模块解决方案研发、生产、服务的企业之一。

以下是赵宁凡就记者所提的问题给出的一些见解和建议。

关于数据中心制冷解决方案

赵宁凡在接受采访时表示,大型数据中心制冷的技术关键在于针对高密度部署的有效制冷。目前新建的大型的数据机房都在向中高密度部署方向发展,为了解决中高密度部署下对数据处理设备的有效冷却,大部分机房都采用了冷热气流分离的冷却和气流组织方式。在这一应用需求的引领下,为数据中心服务的空调产品出现了行间空调、背板式空调、地板式空调等等这些形式,这些形式的空调产品最主要的特点就是有效的适应了冷热气流分离这样的高效冷却方式。

数据中心的制冷有单体式和集中式两种形式,单体式简单来说就是有很多个小型单一的制冷机组。制冷量在300kw以下的小型的数据中心,很多就是采用单体式的制冷。而对于大中型的数据机房,应该采用冷源集中形式,即采用大型制冷机组为数据机房进行集中供冷。大型的制冷机组具有更高的效率和更低的维护管理成本,这是提高数据中心可靠性和效率的有效形式。

赵宁凡表示,数据中心除了配备常规热力循环机理的制冷机组提供制冷外,为了最大限度降低冷却方面的电力消耗,在有条件的地区,FreeCooling (自然冷却)也已经成为数据中心在大部分情况下的"标配".FreeCooling是一种在室外温度比较低时,通过相应的技术手段将室外冷源引入机房内部将热量带走,以达到降温的目的。以北京地区为例,从每年11月份到来年2、3月份的四个月期间,基本可以完全依靠FreeCooling为机房制冷,而不需要启用压缩机制冷设备。在北京,FreeCooling一年大约可以节约30~40%制冷电量消耗。

由于FreeCooling是利用室外冷源进行制冷,因此节能程度受到地域限制。在国内,北纬28度以北的地区,基本都可以采用FreeCooling.业内一般认为南方地区并不适合采用FreeCooling方案。但赵宁凡解释道,实际上,服务器的排风温度通常在35度左右,由于采用了冷热气流分离的冷却和气流组织方式,这为在广州和深圳这样的南方地区同样提供了自然冷却的可能。要知道,即使在广州和深圳这样典型的南方地区,实际上每年冬季也会有一定的时间,环境干球温度或湿球温度是具备自然冷却的条件的。事实上也确实有一些新建的数据中心采用了自然冷却,只是节能率不如北方地区的数据中心来的更多。

数据中心新的制冷技术

近几年,随着数据中心绿色节能理念的不断深入,各种高效的制冷方式都在进行不断地尝试。液冷和磁悬浮制冷就是其中一项比较突出的创新技术。

赵宁凡表示,由于液体的导热系数和热容量要比空气大得多,因此,液体冷却无疑是一种更加高效率的冷却方式。液冷方式有很多种,比如微通道液冷基板、浸泡式、激射式等。这些液冷形式各有千秋。实际上液冷技术并不稀奇,液冷基板这种形式的液冷技术在超算、高性能雷达或者大型电力变频器等领域至少已经有了十几二十年的成熟应用,尤其是大型的高性能超级计算机和高性能军用雷达。液冷技术真正能将高密度部署带到一个前所未有的更高的层级,而且由于液冷技术可以实现针对CPU这样的热岛精确定点冷却,从而可以精确地控制制冷分配,因此,液冷技术也无疑是数据中心节能的发展方向之一。目前液冷技术本身并不存在难以克服的技术难点,应用推广的主要障碍在于技术集成和成本。技术集成方面需要研发制造新型的采用液冷技术的通用服务器。而成本则与性能目标有很大的关系,过高的性能目标当然会带来高昂的成本,对于商业运行来讲难以承受。但只要不盲目追求过高的性能目标,总可以找到成本和性能的平衡点。目前液冷技术在数据中心的应用已经进入初步的尝试阶段,虽然短期内还不具备大规模部署的条件,但对于这一技术我们可以抱有一定的信心。

除了液冷技术之外,近两年磁悬浮制冷技术也逐渐被市场所关注,赵宁凡表示,目前磁悬浮制冷主要应用在热负荷1000kw以上的数据中心。磁悬浮冷水机组有风冷和水冷两种类型。由于磁悬浮压缩机的特点,风冷型磁悬浮制冷机组不太适合夏季环境温度太高的地区。在价格方面,磁悬浮制冷机组在十年前成本还是比较高昂的,但是随着磁悬浮压缩机的技术成熟度不断提高,量产不断扩大,磁悬浮机组的成本也在逐步下降,目前在成本上已经与常规制冷机组相差不是那么巨大了,而由于磁悬浮制冷的效率至少比常规机组高10%到20%,因此,目前磁悬浮制冷机组的价格水平对这一产品的应用推广已经不是太大的障碍。

磁悬浮压缩机制冷在数据中心的应用还有很多文章可做,磁悬浮制冷压缩机的很多特性经过充分的挖掘其实是非常适用于数据中心冷却系统。

选择数据中心的制冷系统和设备应该综合考量

对于目前市场上种类繁多的制冷设备和节能技术,赵宁凡表示,用户在进行数据中心设计规划的时候就要有一定的前瞻性,要充分考虑到可靠性和今后的可扩展性。由于电子技术的发展速度非常快,技术更新换代要比常规的机械产品来得更快、大部分的数据中心在全生命周期内,每3-5年,有30%左右的IT硬件设备会被新设备替代,在数据中心大部分的物理基础设施达到使用寿命之前,IT设备可能已经更新换代了2-3轮。至少我们现在已经看到,每一次数据设备升级,都会伴随性能提高和功率增加。国内很多数据中心建成还没有多少年,就发现制冷能力已经不能满足新的要求,这就是当初规划设计前瞻性不足所导致。所以,作为物理基础设施重要组成部分的制冷系统,在规划设计的时候,应该充分考虑到数据设备若干年后的更新换代,应为今后的升级留下冗余或者可扩展的能力。

和中国存在的普遍现象一样,目前在数据中心建设,很多用户在选择制冷设备时,性价比已经被简单的价格比所替代,"价格"成为了很多项目设备选择标准的最主要考量指标。对此,赵宁凡认为,电源和冷却是数据中心物理基础设施的两个关键系统,这两个关键系统如果出了问题,严重的会导致整个系统的宕机。而不同于一般的舒适性空调制冷设备,数据中心制冷要求全年在各种条件下24小时365天不间断运行,数据中心的制冷设备运行一年,至少相当于普通舒适性空调运行2-3年。所以,对设备的可靠性和耐久性要求更高。同样,由于数据中心制冷运行的时间长,所以制冷设备的效率对运行费用的影响要比普通舒适型空调更大。因此,选择好的,真正是性价比高的制冷设备,能为提高数据中心系统的可靠性,降低运行管理费用,带来很大的好处。俗话说得好,好货不便宜,便宜无好货,所以,价格不应成为数据中心制冷设备选择的最主要指标。

关于PUE,赵宁凡认为PUE是动态,不是静态的,目前用静态的PUE来评价数据中心的效率水平不够科学,不够全面。数据中心的耗电水平除了与设备本身的效率有关之外,还和运行环境、维护保养等有关,一个静态PUE高的数据中心,并不代表全年一定是节能的。以制冷设备为例,过去衡量制冷设备的效率高不高,就用一个COP指标。但是,从上世纪80年代后,通过大量的数据分析,我们发现,空调的全年平均使用负荷只有30%左右,制冷空调设备大部分时间里面实际上是在部分负荷下运行的,这就有了对制冷空调设备效率评价标准的一次大变革,这就是设备的综合能效比或季节能效比IPLV(EER)。

赵宁凡认为,数据中心能耗的评价标准也应该参考空调设备的IPLV(EER),用能够反映全年实际运行水平的综合的PUE来取代单一静态的PUE.当然,这样的评价标准需要建立在大量的数据统计基础上,这也带来了另一个话题,就是数据中心的环控和电能监测,数据中心这两方面数据的统计记录是建立新标准的基础。而大数据技术对于这方面来说,已经不存在多大的问题,这需要行业专业组织来谋划和引导这样的转变。

高层访谈
用友董事长兼CEO王文京:全面数智商业创新时代到来
用友网络董事长兼CEO王文京认为,随着AI成为全球IT技术与产业创新的中心,商业创新也进入全面数..
华为汪涛:深耕价值客户、商业和分销三类市场
5月8日,在华为中国合作伙伴大会2023上,华为常务董事、ICT基础设施业务管理委员会主任、企业BG..
观点态度
12岁即显现商业头脑 IT巨头公司戴尔的发展简史
从1984成立到今天,戴尔已成长为全球知名的电脑、服务器、数据储存设备和网络设备厂商。
5G毫米波网速优势显现,少了高速路的5G不完整
随着5G网络目前在全球各地的开通,5G毫米波在峰值速率上已经展现出了巨大优势。同时,工信部在..
移动互联
手机
智能设备
汽车科技
通信
IT
家电
办公打印
企业
滚动
相关新闻
关于我们 | 联系我们 | 友情链接 | 版权声明
新科技网络【京ICP备18031908号-1
Copyright © 2020 Hnetn.com, All Right Reserved
版权所有 新科技网络
本站郑重声明:本站所载文章、数据仅供参考,使用前请核实,风险自负。