>>返回主页
GRC绿色革命冷却大中华区总负责人 李艾德华 浸没式液冷技术的全球性发展

2018-10-17 14:40

李艾德华.jpg

  没想到房间里面这么多人关注新技术液冷,谢谢大家!谢谢郭总,谢谢各位领导。各位行业同志们,下午好!感谢ODCC提供这么好的机会,让我们GRC来介绍这项又冷又热的技术,这里引用一下ODCC之前所用的标题。我是GRC的大中华区总负责人,李艾德华。 GRC是浸没式液冷的供应商,在美国全球已有部署十年的历史,今天很荣幸跟大家介绍一下《浸没式液冷的全球性发展》。

  为什么GRC会选择进入中国市场,我们的愿景是什么?相信在座的各位都看过全球暖化的图片。冰川或者尘埃的问题,海面上升、森林大火,种种问题都是我们所要面对的。这几年的夏天北京是越来越热。其实这个不是幻觉。我们看一下中国天气网的报告。过去五年到十年来,每年夏天的35度以上温度天上升了5—7天。2000年之后,35度以上的天气平均上升到12—15天。我们的地球是越来越热。由于过度焚烧能源,向大气排放过多的二氧化碳,温度一直保存在地面循环。大家所知道的北京雾霾就是这个原因,相信住在北京的人应该很明白,冬天的雾霾是一件非常难忍的事情。

  大家觉得我是不是走错了地方,怎么突然间跟在座的专家们说起气侯问题?其实不是的,我们作为数据中心行业身处在对全球暖化最有影响的行业之一,全球的数据中心总量已经超过300万个,市值超过450亿美元。而全球的能耗数据中心的能耗占全球3%的能源,已是非常之多。中国和美国、印度是现在数据中心建立最多的国家,而我们中国的数据中心已经超过40万个。这个数字是一直在增加。现在中国有14亿网民用户,每年保持在两千万的增长。加上云计算、人工智能、5G通信等等新科技,数据中心的热量完全不断的在增加,但是我们的冷却科技一直还是停留在七八十年代。在一个数据中心中,它的排热量是占能源消耗最大的。除去像GPU、CPU的全天运作功能,为了解决散热问题消耗了极大的能源。从1970年开始,我们已经开始用空调房间制冷了,一直到了零几年才开始有航级制冷和水板制冷。其实中国很多的数据中心制冷还运行在PUE2.2以上。原因是,我们还是用在50年前的技术。而现在浸没式液冷在市场上以运行有十年的时间了。它的PUE值能达到近1的水平。

  到底什么是浸没式液冷?真正浸没式冷却的概念又是什么样的呢?昨天蓝总在主会场上说到,他的意愿是看到以后的数据中心不再像现在这样堆满一排排的机柜和风扇,而是将所有的IT设备浸没在油里。当时我听到这个意愿非常激动,感觉有小伙伴跟我们一起努力把新技术推广出去是非常好的事情。

  大家可以看一下图。一个放倒的机柜大概1.2米高,可以把所有的IT设备从上往下插入油中,所有的线是往上走的。当你做维修的时候可以直接用吊臂把硬件从油里面调出来,完全避免了工程师在传统机柜运营当中曲身弯腰的环节。在维护的时候,你的IT设备可以直接放到机柜上面,油就会滴回缸里面,不用担心影响环境。

  油有着比空气大1200倍的热容量。IT设备放到油里面,加上去除风扇、散热片,能达到减少50%的耗能。在建设数据中心的时候,不需要去建造通风通道,设置压缩机,所以建筑面积和成本也会减少60%。IT设备泡在油里面,不会有尘埃、潮湿或者氧化的影响。加上油电循环,缸内温度平均,不会有局部过热的情况出现。阿里的钟总提问过,这个油到底对IT设备有什么影响?经过十年测试,我们发现IT设备的寿命和故障率其实能减少10%—20%,而最终的PUE可以保持在1.03。

  大家最关心这到底是个什么样神奇的液体,到底是什么东西可以把PUE保持在1.03?我们公司用的液体是ElectroSafe一种矿物油,无毒无色无味而且无侵蚀的矿物油。开个玩笑,如果口渴完全时可以喝这种矿物油,对人体无害,但是我们不建议这样做哈。除此以外,ElectroSafe还达到美国NFPA705鉴定的防火标准。跟大家分享一个比较好玩的事:之前有一个在我们公司工作了半年的工程师回到家,托着他老婆的手,他老婆说你的手为什么比我还软,是用哪个牌子的护手霜?他很正经的说,用了GRC无添加纯天然护手油。所以那天我们出护手油大家也不要奇怪。

  介绍一下我们公司。GRC成立于2009年。总部位于德州奥斯丁。我们至今拥有10项专利。2010年完成第一个案例安装。2012年发集装箱式的布浸没式系统。2017年在全球13个国家已经拥有40多个案例。今年正式进入中国市场。我们的客户包括美国的国防部、空军、英特尔、东京工业大学等。

  东京工业大学的案例是我们2013年跟日本NEC合作的。是一个为TSUBAME—KFC超级电脑建造的室外集装箱案例。节点在240TFLOPS。这个项目我们有两个比较自豪的成就。一,日本的天灾比较多,地震也是比较多的。因此,我们拿到日本地震公认的证书。二,连续两年拿到Green500超级电脑的第一。

  我们跟美国空军的项目是在2012年开始的。当时空军所遇到的问题是,他们现有的数据中心提供不了所需的计算容量。而且当时的应用场景建立在一个发射基地,新建一个数据中心对他们来讲,从场地到部署到时间都是一个不现实的方案。当初我们给出一个方案,不如建一个集装箱式的数据中心。这样他们进行任务的时候可以随时调动,而且也是当时所谓最早的边缘计算。这个项目在十周之内完成了部署建设,而且这个项目我们学习到移动式浸没式装置在市场上有一定的发展,也是我们客户经常要求的一个产品。

  CGG地学探测的项目是我们位于美国休斯敦最大的项目,至今已经运行了八年。这家公司当时选址,想在同一个大楼里面建三个数据中心。它们建第一和第二个数据中心的时候都是用传统的风能去建的。而到第三个数据中心时,发现所有的发电力已经承受不了他们所承受的计算能力。建设场地是一个一千平米的地方。每台机柜装满42U,机柜是由80个CPU和80个GPU组成。每个柜子能承受大概25千瓦的热容量。四个柜子连接到一个热转换,排出100千瓦的散热量。这是我们在美国实现了比较高密度和高计算的一个项目。

  维也纳科学集群的项目,位置位于奥地利,占地平方100平。这个项目输出能源在450千瓦,节点在681 TFLOP。部署用了干式冷却系统,达到不用水循环就可以传走热量。PUE保持在1.02。

  利用我们在数据中心节能方面的优势,我们希望能减少全球暖化问题。我国近两年雾霾情况逐渐下降,加上政府的大力支持和管理,现在的环境问题也开始慢慢解决。然而,我国数据中心还是保持在PUE 2.2的状态。最近,政府发出把PUE控制在1.4的条款。这就是为什么我们认为中国的数据中心行业是一个非常环保的行业。有了大家的支持,我们可以共同减少地球暖化的问题。GRC大中华区是一个比较新的公司。我们也希望能跟行业的前辈们多交流,使用案例向大家表示浸没式的安全性。同时也谢谢ODCC提供的平台和机会,让我们在这里跟大家去做分享。

  谢谢!

0