Deprecated: Creation of dynamic property db::$querynum is deprecated in /www/wwwroot/www.42zhanyouwang.com/inc/func.php on line 1413

Deprecated: Creation of dynamic property db::$database is deprecated in /www/wwwroot/www.42zhanyouwang.com/inc/func.php on line 1414

Deprecated: Creation of dynamic property db::$Stmt is deprecated in /www/wwwroot/www.42zhanyouwang.com/inc/func.php on line 1453

Deprecated: Creation of dynamic property db::$Sql is deprecated in /www/wwwroot/www.42zhanyouwang.com/inc/func.php on line 1454
建设提速信息“诺亚方舟”怎么样摆脱“能耗巨兽”魔咒?_恒温恒湿展柜系列_开云全站app_全站登录网址
欢迎光临开云全站app_全站登录网址官网!
全国咨询热线:17318037685
联系我们

开云全站app_全站登录网址

曾经理:17318037685

Q Q:3538504606

地址:深圳市光明区新湖街道楼村社区红银路46号C栋202

建设提速信息“诺亚方舟”怎么样摆脱“能耗巨兽”魔咒?

产品详情


  12月5日,《时代》周刊发表了传统的年度回顾文章。当期杂志的封面上写着巨大的数字2020,数字上面被打了个红叉。下面写着“史上最糟糕的一年”。

  影评人斯蒂芬妮·扎查雷克称:“如果2020年是一个反乌托邦式的电影,你可能会在观看20分钟之后关闭它。”

  受到自然灾害、新冠疫情的影响,全球很多国家经济稳步的增长出现停滞。但国外的疫情并未得到很好的控制,更为糟糕的事情恐怕要延续至2021年。

  而相比之下我国则成为了万众瞩目的新焦点,不仅在下半年力挽狂澜地实现了经济稳步的增长,而且还通过“新基建”逐步推动经济。

  2020年4月,国家发改委明确新基建范围,提出“以新发展理念为引领、以技术创新为驱动、以信息网络为基础,面向高水平发展的需要,打造产业的升级、融合、创新的基础设施体系”的目标。

  新基建最重要的包含5G基站建设、大数据中心、人工智能、工业互联网等七大领域,涉及诸多产业链。

  作为一切数字化、信息化的基础设施,未来的数据中心将承载一切!根据工信部数据,2019年大数据中心市场规模为1562.5亿元。亿欧智库预测,未来6年大数据中心市场规模复合增长率将达到20%,累计投资规模为1.9万亿元。2020年3月,中央政治局常务委员会提出了加快数据中心等新型基础设施建设的要求。数据中心作为基于新一代信息技术的基础设施,是算力的典型代表,数据中心发展迎来风口。但数据中心作为新型基础设施,其建设一直被能耗过大等问题所困扰,秉持绿色化发展原则慢慢的变成了了全社会的共识。数据中心作为信息的诺亚方舟,只有通过降低PUE才能摆脱能耗巨兽的魔咒。

  我们先来看看数据中心的发展,60年代的时候,普遍称其为机房,因为那时没有统一的标准,各种机房设施相对简陋,计算机的摆放也非常随意。到了90年代机房开始有了标准,UPS及恒温恒湿的空调设备引入,可以称之为第二代数据中心。

  2000年之后,IT设备需要24小时不间断运转,更加专业的数据中心出现,专业空调配合气流控制管理系统成为散热标配,另外在供电和防雷方面也更加完备,这是第三代数据中心。

  第四代数据中心诞生在2010年后,进一步融合了云的元素,高密度、模块化等概念也对数据中心进行了细分。同时,服务器机柜列间空调普遍的使用,配备了更精细化的气流控制管理系统,并辅以更完善的远程监控、自动化运维等系统,进一步简化了管理。

  正如前文所述,新一代数据中心重点考虑的是节能与散热。数据中心的功耗大多数来源于IT设备及空调,目前常见数据中心的散热方式是风冷,通过空调制冷来冷却数据中心的方式已经沿用了几十年之久。但随着数据中心规模的逐步扩大,CPU、刀片服务器等设备发热量激增,使得风冷散热方式的能耗慢慢的升高,PUE值难以降低。

  国家节能中心及中国电子节能技术协会数据中心节能技术委员会联合发布的统计多个方面数据显示,2012—2016年,我国数据中心的年耗电量增速从始至终维持在12%以上,最高达16.8%,并指出“数据中心的高能耗不仅给机构和公司能够带来了沉重负担,也造成了全社会能源的巨大浪费”。

  既然是这样,那么将数据中心部署到高纬度地区,通过自然风散热,不就能解决了吗?

  目前我们正真看到有些互联网公司将数据中心部署至北方地区,在冬季等时段可以不用空调冷却,以此来降低能耗。但这也并非万全之策,在炎热的夏季或者恶劣天气的情况下,数据中心依然需要空调进行冷却。而且对于数据中心建设而言,所有散热设施必须齐备,仅仅是空调使用时间变少了,硬件及基础设施投入依然不减。

  综合来看,还是液冷更符合可持续发展。关于液冷与风冷的对比,我们先举个简单的例子,刚煮熟的鸡蛋,如果用风扇吹,需要很久才能凉;倘若放置到冷水中,则很快就能变凉。

  同体积液体带走热量是同体积空气3000倍,使用液体取代空气作为冷媒,为发热部件进行“换热”,能够使散热效率极大的提升。喜欢硬件DIY的超频发烧友和硬件爱好者也经常摆弄液冷套件,通过更高效的散热让处理器、显卡超频发挥最大效能,更加有助于突破频率极限,同时还比风冷更加静音。在服务器领域也是如此,液冷系统比风冷系统节电30-40%;单机柜功率密度极大提升,液冷机柜能节约空间80%。

  随着技术的快速的提升,液冷也逐渐从冷板式过渡到浸没式。冷板式液冷相信我们大家都很熟悉了,比较常见于服务器、超频台式机,主要是通过水管、水泵和换热腔体连接,为CPU和GPU等设备散热。

  浸没式则是用不导电的冷却液把包含所有配件的主板“泡”起来,再通过冷却液流动带走热量。其优点是能够为所有芯片、配件进行散热,包括:CPU、GPU、芯片组、内存、网络芯片等等,整体散热效果又进一步优于冷板式。例如,基于曙光相变式全浸没液冷技术的“曙光硅立方液体相变冷却计算机”,PUE能够降至1.04,相比风冷数据中心能效比提升超30%,核心部件性能可提升20%,计算设备可靠性至少提升一个数量级。如果我国的计算中心、数据中心都采用此项技术,一年可节省电力400亿度,相当于三峡大坝一年发电总量的1/3。在新基建的推动下,信息“诺亚方舟”正在飞速拓展中,云计算、大数据、人工智能、5G等需求促使数以万计的数据中心拔地而起,怎么样摆脱“能耗巨兽”魔咒关键还要看液冷技术的应用。只有通过新技术的落地,才能让数据中心铸新淘旧,实现线日,在第十五届中国IDC产业年度大典“液冷科技”专场分论坛上,国内首个关注液冷数据中心发展的白皮书——《

  》将发布,新基建推动下数据中心即将迎来一场全新的绿色革命,怎么样才可以在竞争中立于不败之地?敬请关注!返回搜狐,查看更加多