重庆分公司,新征程启航

为企业提供网站建设、域名注册、服务器等服务

让温度可控,让数据安全

近日,微软发布Microsoft 365 Copilot,百度推出“文心一言”,Open AI推出GPT-4大模型,商汤推出“书生 2.5”,Google推出 Workspace,一系列以大模型、大数据,高算力为基础的人工智能相关技术研发及商业应用,将打开市场对算力需求的想象空间。

创新互联从2013年开始,先为阿鲁科尔沁等服务建站,阿鲁科尔沁等地企业,进行企业商务咨询服务。为阿鲁科尔沁企业网站制作PC+手机+微官网三网同步一站式服务解决您的所有建站问题。

数据中心的“冷”与“热”

算力资源是数字经济发展的重要底座。随着数字经济蓬勃发展,数字化新事物、新业态、新模式推动应用场景向多元化发展,算力需求持续攀升。工信部发布的数据显示,2022年,全国在用数据中心机架总规模超过650万标准机架;近5年,算力总规模年均增速超过25%。

随着算力规模不断扩大,数据中心单位空间中产生的热量增加,散热问题愈加突出。“双碳”政策下,如何实现数据中心“降耗高效”成为温控企业关注方向。

近日,三河同飞制冷股份有限公司副总经理/CTO陈振国先生(在参加第十七届中国IDC产业年度大典时)接受了中国IDC圈记者的采访,就同飞股份产品及解决方案和行业发展趋势进行深入的介绍。

同飞股份作为液冷整体解决方案提供商,是集研发、制造、销售和服务为一体的高新技术企业。公司拥有包含CDU在内的板式液冷全链条解决方案和浸没式液冷全套解决方案、风冷机房空调、风墙、AHU间接蒸发冷却等产品,主要应用于四大领域,分别是:数据中心、电力电子冷却、装备制造冷却、储能冷却,其中装备制造和电力电子占的比重要高一些,未来数据中心行业是拓展方向。

智能、安全、成本低

随着算力需求的增长,数据中心功率密度越来越高,传统风冷空调已经不能满足数据中心温控需求,液冷方案优势逐渐凸显,随着国家对数据中心PUE的要求越来越低,不管是新建机房,还是老旧机房,液冷技术的应用空间非常广阔。据科智咨询数据,2021年中国液冷数据中心应用规模达到209.7亿元,同比增长35.6%,预计2025年液冷数据中心应用规模达到850亿元。

中国液冷数据中心应用规模(亿元)

飞书20230417-100829

注:中国液冷数据中心应用市场规模包含液冷数据中心相关配套机电设备以及服务器应用规模

数据来源:科智咨询

据陈振国介绍,同飞股份智能、安全、成本低的全链条液冷解决方案助力数据中心行业实现低能耗、低PUE值。

1.智能化使温控系统更加弹性且更加柔性

产品智能化和生产工艺智能化,同飞股份温控产品加入单片机或PLC的系统,能智能的控制各个执行部件,包括风机、水泵和压缩机。从温控自动化管理来看,数据中心系统的发热和系统的工作比率是非常重要的参数。在初期的数据中心,实际上的工作比率基本负荷60%左右,甚至还不到。但是随着大规模、高算力应用的出现,数据中心负荷越来越高。同时,一些先进的智能化的调配、优化手段,又使它的能耗有所下降,这对热管理系统的要求更强。比如做一套热管理系统,它既要能保证在高负荷情况下长期运行的可靠性,然后又要适合于在低运行工况下能效会更高。比如在系统中做一些水泵流量的控制,当大算力的时候可以把水泵的流量放到100%;当小算力的时候,把水泵的流量放到20%或者是30%,这样来降低整机的PUE达到1.2以下,提高能效比。

工艺制成的智能化,同飞股份所有设备制造是联网整机的MES系统,整个厂的MES系统是相关联的,客户也可以通过联网在整个设备制造过程中进行监控,实现了产品品质的提升。

2.硬件冗余设计、软件严格评估

物理安全方面,液冷系统会设置冗余的水泵,如果自动检测水泵出现故障停机,或者是出现一些异常的停机,另外的备用水泵会立刻供上来保证整个系统的冷却的及时性,冗余方案来保证水冷的稳定性和可靠性。另外,电器线路的余量设计,比如导线的载流量是普通工业设计的一半。也就是在工业中,需要选2.5平方的导线,我们可能就选4平方,用更高余量的导线来降低电器的风险。

同时,同飞股份把冷却系统温度的波动定义为±1度,无论外部环境温度如何变化,数据中心系统温度就在±1度范围内,确保温度的稳定性做到最高,防止因为快速的温度变化引起系统的一些故障。

信息安全方面,同飞股份软件系统经过严格专业机构评估,不会出现通过内部的控制系统侵入整个数据中心系统,造成数据中心信息的损失,保证整个数据中心安全。

3.成本最低、竞争力强

竞争力体现在两方面,性能最好和成本最低。在性能方面,同飞股份具有先天优势,依赖于20年液冷应用经验,把液冷专利技术引入到数据中心行业。另外,公司相关产品配套类型齐全、自制率高,使成本降到最低,比如换热器、钣金、电气自控等完全自产。

液冷将成为未来趋势

算力提升的背后,芯片承担更高计算效率,在更短时间内完成更多运算,因此带来芯片能耗的增加。功率密度的增加使芯片温度升高,芯片工作温度会很大程度上影响其性能的发挥。据了解,用于冷却的体积占98%,只有2%用于计算运行,但是依然很难解决散热问题,算力需求的飙升对芯片性能的要求持续快速提升,散热问题将愈加突出。

当前芯片级散热方案主要包括液冷技术、相变储热散热技术、蒸发冷却技术等,液冷技术是芯片级散热重要方案之一,有望成为未来主流。液冷技术中,涵盖冷板、浸没、喷淋等。当前来看,冷板式和浸没式较喷淋式发展相对成熟。

数据中心的计算能力由芯片决定,随着单机柜功率密度从4KW、6KW增长到15KW到20KW,整个服务器的芯片的功耗不断增长,传统风冷式数据中心(平均PUE在1.5左右)逐渐无法满足企业降低数据中心能耗的需求。液冷技术是使用液体取代空气作为冷媒,为发热部件进行换热,带走热量的技术,同体积液体带走热量是同体积空气的近3000倍,液冷技术得到数据中心行业的密切关注。

现阶段应用只限于少数政府项目,阿里、腾讯等少数互联网企业应用。随着国家标准完善、产业链上下游联动、用户认知以及相关技术水平的提高,液冷技术在数据中心应用将成为行业发展趋势。

“在数据中心温控领域,目前的发展方向是朝着液冷和低能耗方向发展。2022年,国家能耗标准已经出台,传统的风冷在能耗方面已经不能满足国家的要求。因此,液冷方向的趋势非常明显。未来的终极方向会向全浸没式液冷方向发展,这样空冷将降为零。”陈振国说。


本文题目:让温度可控,让数据安全
网页URL:http://cqcxhl.com/article/soicdd.html

其他资讯

在线咨询
服务热线
服务热线:028-86922220
TOP