《中国液冷数据中心市场深度研究报告2023.docx》由会员分享,可在线阅读,更多相关《中国液冷数据中心市场深度研究报告2023.docx(89页珍藏版)》请在课桌文档上搜索。
1、正文目录第一章中国液冷数据中心产业发展背景第二章中国数据中心产业液冷技术发展及应用概况第一节数据中心产业液冷技术发展现状1O第二节数据中心产业液冷技术应用概况17第三章中国液冷数据中心市场发展现状分析第一节中国液冷数据中心产业链20第二节中国液冷数据中心市场规模24第三节中国液冷数据中心市场发展特征29第四节中国液冷数据中心市场发展驱动与阻碍因素32第四章中国液冷数据中心市场需求研究第一节行业用户液冷数据中心部署现状40第二节泛互联网行业用户液冷数据中心需求42第三节泛政府行业用户液冷数据中心需求46第四节电信运营商液冷数据中心需求50第五节金融行业用户液冷数据中心需求54第五章中国液冷数据中
2、心市场竞争研究第一节中国液冷数据中心市场竞争态势56第二节中国液冷服务器市场竞争分析60第三节中国液冷基础设施市场竞争分析68第六章中国液冷数据中心市场发展趋势与前景第一节未来中国液冷数据中心市场规模预测72第二节未来中国液冷数据中心市场发展特征与趋势77第三节未来中国液冷数据中心市场发展前景79附:中国液冷数据中心典型案例图表目录图表1:数据中心在数字经济发展中的基础性作用2图表2:2017-2022年中国数据中心机柜规模及增长3图表3:2022年数据中心实际PUE与政策要求PUE差异比较4图表4:国家层面液冷数据中心政策5图表5:地方层面液冷数据中心政策6图表6:主流芯片制造商芯片功耗增长
3、预测7图表7:数据中心冷却技术分类11图表8:不同数据中心冷却方式制冷效果11图表9:冷板式液冷原理示意图14图表10:浸没式液冷原理示意图15图表11:喷淋式液冷原理示意图16图表12:数据中心液冷技术方案对比18图表13:中国液冷数据中心产业链图谱20图表14:液冷数据中心业务落地流程示意图23图表15:20192022年中国液冷数据中心市场规模25图表16:2019-2022年中国冷板式液冷数据中心市场规模26图表17:2019-2022年中国液冷服务器市场规模27图表18:2019-2022年中国液冷数据中心基础设施市场规模28图表19:中国液冷数据中心产业生命周期29图表20:202
4、2年中国液冷数据中心市场行业需求结构41图表21:不同行业用户液冷数据中心部署原因42图表22:2019-2022年中国泛互联网行业液冷数据中心需求规模43图表23:头部泛互联网企业液冷技术布局及应用44图表24:2023-2027年中国泛互联网行业液冷数据中心需求规模预测45图表25:2019-2022年中国泛政府行业液冷数据中心需求规模46图表26:泛政府领域液冷数据中心项目部署案例47图表27:政府主导建设智算中心项目情况48图表28:2023-2027年中国泛政府行业液冷数据中心需求规模预测49图表29:2019-2022年中国电信行业液冷数据中心需求规模50图表30:基础电信运营商早
5、期液冷技术验证51图表31:2023-2027年中国电信行业液冷数据中心需求规模预测53图表32:2019-2027年中国金融行业液冷数据中心需求规模及预测54图表33:液冷数据中心市场细分领域玩家竞合关系57图表34:液冷服务器业务发展关键因素60图表35:中国液冷数据中心市场服务器厂商竞争态势61图表36:超聚变主要液冷服务器产品63图表37:浪潮主要液冷服务器产品64图表38:宁畅信息主要液冷服务器产品65图表39:新华三主要液冷服务器产品66图表40:主要液冷基础设施厂商技术线和产品线情况68图表41:2023-2027年中国液冷数据中心市场规模预测73图表42:2023-2027年中
6、国冷板式液冷数据中心市场规模预测74图表43:2023-2027年中国液冷服务器市场规模预测75图表44:2023-2027年中国液冷基础设施市场规模预测76第一章中国液冷数据中心产业发展背景数字经济发展、“双碳”压力加大以及IT部署功率密度持续提升的背景下,液冷系统凭借高效散热能力,在数据中心的渗透率将持续提升,液冷数据中心产业发展前景广阔。1、数字经济发展,驱动中国数据中心市场持续增长近年来,中国数字经济保持较快发展。各区域各行业数字产业政策密集出台,以及5G、AI、工业互联网、区块链等数字技术逐步成熟落地,推动数字经济持续快速增长,成为国家及社会经济发展的核心驱动。同时,自2019年数据
7、纳入生产要素范畴以来,数据要素市场建设深入推进,将推动以数据为核心的数字经济进程不断推进,向更深层次的数字经济发展阶段迈进。2022年,中国数字经济规模达到50.2万亿元,同比名义增长10.3%,占国内生产总值比重提升至41.5%。根据国家网信办,截至2022年底,中国数据产量达到8.1ZB,同比增长22.7%。数据中心是数字经济基础设施底座,中国数字经济快速发展,数字产业化及产业数字化进程推进,数据量爆发式增长,将直接带动数据中心市场快速增长。图表1:数据中心在数字经济发展中的基础性作用数字经济发展生产要素生产要素H数据价值比季产业化产4k字化I数字化治理采集汇聚基础电信智能制造多主体参与确
8、权定价电子信息制造金融科技技管结合市场交易软件与服务自动驾驶安全保护互联网智慧政务数字化公共服务数据中心:数字基础设施底座截至2022年底,中国数据中心机架总规模达到670万架,近五年复合增长率达到32.2%。预计未来五年,随着国内大数据产业逐步成熟,智能ABC(人工智能、大数据、云计算)、5G、数字挛生技术等新兴数字技术由研发阶段逐步迈向应用阶段,大量数据存储、传输和计算需求将持续促进数据中心的建设与发展。图表2:20172022年中国数据中心机柜规模及增长(标准机柜,万架)注:数据中心机柜规模统计维度为2.5kW标准机柜数量。数据来源:工业和信息化部2、“双碳”系列政策密集出台,液冷是重要
9、的绿色化解决方案数据中心具有高耗能属性,根据科智咨询统计,2022年全年用电量达到845.2亿千瓦时,占全社会用电量约1%。伴随数据中心规模持续扩大,基于现阶段技术和系统架构,数据中心用电量将快速上升。因此数据中心产业可持续发展需要考虑采用更加节能效果更好的技术及产品,助力“双碳”目标实现。“双碳”目标提出以来,国家及地方政府出台相关政策,对PUE(数据中心总能耗/IT设备能耗)提出更高要求,工信部新型数据中心发展三年行动计划(2()212023年)提出到2023年底,新建大型及以上数据中心PUE降低到1.3以下,东数西算枢纽节点及寒冷地区力争降低到1.25以下;北上广深一线城市对于PUE限制
10、更为严格。政策要求与数据中心实际运行PUE仍有较大差距,需要采用更加高效节能的技术及设备,降低数据中心能耗。图表3:2022年数据中心实际PUE与政策要求PUE差异比较121.1全国北京上海广东一政策要求数据中心叩Ea现阶段数据中心运行PUE数据来源:科智咨询数据中心PUE是衡量数据中心环境能耗的指标,除IT设备外,数据中心运行能耗主要来自制冷系统。根据科智咨询测算,以运行PUE为1.57的数据中心为例,IT设备能耗占比为63.7%,其次是制冷系统能耗占比,达到27.9%。因此降低PUE的关键在于采用更加高效绿色的制冷方案,传统风冷技术PUE极限值为1.25,液冷技术能够实现数据中心能耗低于1
11、.1,可有效解决PUE难题。液冷技术作为高效绿色的数据中心冷却方案,成为国家及地方政策鼓励采用的重要节能技术。在国家层面,政策从算力集约化和绿色化出发,明确提出鼓励数据中心部署液冷系统。图表4:国家层面液冷数据中心政策时间发文主体政策名称主要内容2023年3月财政部、生态环境部、工业和信息化部绿色数据中心政府采购需求标准(试行)数据中心相关设备和服务应当优先选用新能源、液冷、分布式供电、模块化机房等高效方案。2021年12月国家发展改革委、中央网信办、工业和信息化部、国家能源局贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案支持数据中心采用新型机房精密空调、液
12、冷、机柜式模块化、余热综合利用等方式建设数据中心。2021年7月工业和信息化部新型数据中心发展三年行动计划(2021-2023年)鼓励应用高密度集成等高效FT设备、液冷等高效制冷系统、高压直流等高效供配电系统、能效环境集成检测等高效辅助系统技术产品。鼓励企业加大技术研发投入,开展新型数据中心预制化、液冷等设施层,专用服务器、存储阵列等IT层,总线级超融合网络等网络层的技术研发。2021年5月国家发展改革委、中央网信办、工业和信息化部、国家能源局全国一体化大数据中心协同创新体系算力枢纽实施方案推动数据中心采用高密度集成高效电子信息设备、新型机房精密空调、液冷、机柜模块化、余热回收利用等节能技术模
13、式。信息来源:科智咨询整理在地方层面,除贯彻落实国家宏观政策外,政府通过对使用液冷技术的数据中心提供奖励,扩大液冷数据中心规模,提升地区能效水平,鼓励液冷服务器、液冷设备等产业发展等方式,促进液冷产业链生态的完善,为地区发展提供新动能。图表5:地方层面液冷数据中心政策地区时间发文主体政策名称主要内容北京2022年7月北京市经济和信息化局北京市推动软件和信息服务业高质量发展的若干政策措施对数据中心转型为算力中心或涉及余热回收、液冷、氢能应用的,按照固定资产投资的30%进行奖励。对于改造后PUE达到地方标准数据中心能源效率限额(DBIl“1139)规定准入值且接入“北京市节能监测服务平台”的数据(
14、算力)中心,按照改造项目固定资产投资的25%进行奖励。张家口2019年6月张家口市人民政府中国数坝张家口市大数据产业发展规划(2019-2025年)立足坝上地区水资源缺乏的实际,鼓励企业采用浸没式液冷技术、冷板式冷却技术或无蒸发式水冷技术提高水资源使用效率。上海2022年6月上海市经济和信息化委员会、上海市发展和改革委员会上海市经济信息化委市发展改革委关于推进本市数据中心健康有序发展的实施意见加快绿色新技术新产品运用。鼓励应用高密度集成等高效IT设备、液冷等高效制冷系统、高压直流等高效供配电系统、能效环境集成检测等高效辅助系统技术产品。2021年3月浙江省发展和改革委员会、浙江省经济和信息化厅
15、浙江省数字基础设施发展“十四五”规划强化绿色节能设计,加快研发应用液冷服务器、能源管理信息化系统、分布式供能等新技术,减低数据中心传统电源用电负荷。浙江2021年12月浙江省发展改革委、省经信厅等五部门浙江省推动数据中心能效提升行动方案(2021-2025年)支持数据中心采用新型机房精密空调、高效电源设备、液冷技术、机柜式模块化、削峰填谷应用、余热综合利用等方式建设数据中心。广东2023年3月广东省发展和改革委员会、广东省能源局等七部门广东省绿色高效制冷行动计划(2023-2025)鼓励使用液冷服务器、热管背板、间接式蒸发冷却、行级空调、自动喷淋等高效制冷系统,因地制宜采用自然冷源等制冷方式,
16、推动其与机械制冷高效协同,大幅提升数据中心能效水平。重庆2022年12月重庆市通信管理局、重庆市经济和信息化委员会等十部重庆市信息通信行业绿色低碳发展行动实施方案(2022-2025年)积极应用液冷型、高温型IT设备,提高数据中心IT设备能效。成都2022年12月成都市经济和信息化局全国一体化算力网络成渝国家枢纽节点(成都)推进方案鼓励数据中心采用间接蒸发冷却、近端制冷、液冷、余热综合利用等先进供冷技术。信息来源:科智咨询整理3、数据中心IT部署密度不断提升,液冷成为高效散热最优解芯片散热效率要求提升,高算力应用场景涌现,驱动单机柜功率密度提升,对数据中心散热提出更高要求。近年来,市场主流芯片
17、功耗密度持续提升,散热需求快速增长,Intel.ADM等主要芯片制造商持续提高芯片的散热设计功耗TDP(ThermalDesignPower),主流系列处理器功耗已达350-400TDP/W。此外,Al应用发展推动GPU需求增长,GPU功耗密度远高于CPU,NVIDIAH800功率密度达到700TDP/W,已突破传统风冷系统散热能力范围。预计未来在后摩尔定律时代下,芯片算力与功耗仍将大幅提升。图表6:主流芯片制造商芯片功耗增长预测IntelAMD数据来源:企业官网从用户需求来看,高算力应用场景部署需求不断增长,单机柜密度从4.4kW逐步增长至8kW乃至更高,将带动液冷数据中心发展。通用算力场景
18、中,高算力部署需求主要集中在公有云及互联网领域。公有云业务基于IT基础资源提供服务,未来一段时间仍将保持40%以上的快速增长,需要通过高密部署实现降本增效;以云游戏为代表的主流高性能计算场景已达IkW/U的功率密度。伴随ChatGPT的商业化落地,智算需求将快速提升。国内百度、阿里、腾讯、华为、字节等互联网大厂陆续推出AlGC算力模型,基于GPU的智能算力部署将持续提升,智算中心单机柜密度一般在20kW以上,需要部署液冷系统达到散热要求。根据2023年10月工信部等六部门发布的算力基础设施高质量发展行动计划,到2025年,中国算力规模将超过300EFLOPS,其中,智能算力占比将达到35%,智
19、算规模的增长将成为液冷数据中心发展的重要驱动。伴随高密应用场景增加以及IT部署密度提升,数据中心需要采用更加高效的散热方式,传统风冷技术散热上限一般为单机柜20kW,难以满足更加高密的部署;部分项目试点采用水底、山洞等方式进行冷去U,但受到特殊自然环境限制,难以推广;液冷通过用高比热容的液体取代空气作为热量传输的媒介,直接或间接接触发热器件,散热效率高,能够最大程度满足数据中心高效散热需求。第二章中国数据中心产业液冷技术发展及应用概况目前液冷发展形成三条技术路线:冷板式、喷淋式、浸没式液冷。冷板式液冷方案与传统技术相比差异性小,部署成本低,根据科智咨询统计,现阶段在液冷数据中心中应用比例超过9
20、0%,但冷板式方案制冷效率略低于浸没式。伴随高算力需求增长,预计未来几年,浸没式应用比例将有所提升。第一节数据中心产业液冷技术发展现状一、数据中心冷却方式与液冷技术优势数据中心是为集中放置的电子信息设备提供运行环境的建筑场所,集合了大量电子元器件。数据中心的持续运行产生大量热量,需要进行冷却散热及时将热量排出,保障其性能和稳定性。因此冷却系统是数据中心重要组成部分。根据冷却介质的不同,数据中心冷却可划分为风冷和液冷。数据中心风冷冷却方式利用空气作为冷却介质,通过空气处理机引入外部空气,经过冷却后进入服务器机架的冷通道,对服务器进行冷却,冷却后的空气从热通道排出,通过充气室返回空气处理机。根据是
21、否采用自然冷源,风冷可以分为机械制冷和自然冷却。机械冷源由于末端工作媒介的不同,划分为DX制冷(直膨式制冷:制冷剂在蒸发器中膨胀蒸发对空气直接进行制冷,中间不经过水等换热媒介)和冷冻水制冷;自然冷源根据换热介质的不同可以分为风侧、水侧、M侧自然冷和自然水冷却(海水、湖水制冷)等形式。不同于风冷冷却方式,液冷通过用高比热容的液体取代空气作为热量传输的媒介,直接或间接接触发热器件,吸收并带走其产生的热量,满足设备散热需求。相比传统风冷,液冷技术具备超高能效、超高热密度等优点,是现阶段及未来长期内电子设备解决散热压力、应对节能挑战的重要途径。液冷技术方案可划分为浸没式、喷淋式、冷板式。图表7:数据中
22、心冷却技术分类数据中心冷却风冷机械冷源自然冷源浸没式液冷I冷7俨IM:制冷啕液双相浸没式液冷相浸没式液冷水冷冷机*板换风冷冷机十板换水冷冷机风冷冷机自冷水冷冷机风冷冷机水冷Dx风冷Dx不同数据中心冷却方式散热效果存在差异,单机柜密度在20kW以下的数据中心采用风冷即可满足散热需求,功率密度超过20kW需要采用液冷技术。图表8:不同数据中心冷却方式制冷效果-数据中心冷却方式背板热交换热风抽取冷却机柜循环制冷jI顶一盘管冷却I封闭冷热通道冷热通道J5KWIOKf15KW20KW25KW30KW35KW数据来源:科智咨询除高效散热,液冷技术具有低能耗、低TC0、低噪声和低占地面积等显著优势。能耗方面
23、,液冷系统传热路径短,低温液体由CDU(冷量分配单元)直接供给通讯设备内,换热效率高,PUE可低至1,1;成本方面,低PUE能够降低数据中心运营成本,液冷数据中心初期建设投资略高,一般两年左右可实现投资成本回收;噪声方面,液冷技术利用泵驱动冷却介质在系统内循环流动并进行散热,能够降低冷却风机转速或者采用无风机设计,解决传统风冷机房噪音污染问题;空间利用方面,液冷机柜单机柜功率高,在支撑同等规模的IT负载下,液冷数据中心占地面积较风冷数据中心低约20%O二、数据中心液冷系统架构液冷数据中心散热系统架构由室外(一次侧)和室内(二次侧)两部分组成。室外冷却塔中的冷却液通过室内冷却液体流量分配单元提供
24、冷却液循环动力,经CDU二次侧输出并与服务器中发热电子元器件(CPU、GPU、内存等)的导热冷板直接进行热交换,形成的热液经冷量分配单元输出到室外冷却塔进行冷却后再循环。CDU用于在液体回路之间进行热交换,分为机架式(嵌柜式)、机柜式和平台式等,主要作用是隔离一次侧与二次侧回路,并在其内部提供一次侧与二次侧的热交换能力,此外,还能够起到对压力、流量、温度、露点控制、水质洁净度及泄漏监测的作用。二次侧系统包括供回液歧管、快速接头等关键部件。供回液歧管主要用于将从CDU分配进入各机架内的冷却工质再次均匀分流到各IT设备,并从出液端收集回流液体,由于连接点存在泄露风险,通常设置在机柜底部。快换接头能
25、够快速连接或断开IT设备或其组件与液冷系统的连接,并确保其具备自封功能,通常是公/母配置配对使用的,断开时,集成在快换接头内部的用于密封流体流动的自封阀芯会断开流体的连接,以保护周围设备不受影响。一次侧指室外制冷系统,根据二次侧末端的水温和室外的气象参数不同,可分为自然冷却和机械冷却两种形式,自然冷却系统主要包括开式冷却塔、闭式冷却塔和干冷器,可提供30以上冷却水;机械制冷系统主要包含风冷冷冻水系统和水冷冷冻水系统,可提供12-18C冷冻水。液冷技术类型根据冷却液和发热设备接触换热方式的不同,可划分为冷板式液冷、浸没式液冷和喷淋式液冷。(1)冷板式液冷冷板式液冷通过把冷板与发热器件紧密固定,将
26、发热器件的热量传导给冷板中的冷却液,并将冷却液中的热量运输至后端冷却。液冷数据中心应用场景中,冷板式液冷对于服务器芯片组件及附属部件改动较小,主要途径为加装液冷模块,采用集中式或分布式CDU供液、ManifOld分液,对芯片、内存等部件进行精准制冷。目前,冷板式液冷数据中心已形成相对成熟的解决方案,通过冷板和CDU带走IT设备超过80%的热量,该部分直接由冷却塔带走;另外20%的热量可通过后置被动式液冷门,经由冷水机组和冷却塔之间换热,支持25-28C高温水带走热量(高于行级空调18以下供水温度),可以在全年大部分时间不开冷水机组,仅在夏季需要少量补冷,从而做到制冷PUE最佳。根据冷板的不同,
27、非接触式液冷可分为局部冷板和全覆盖冷板。局部冷板仅支持核心部件散热,具有与传统机房兼容性好的特点,但需要风冷解决其他部件散热问题;全覆盖冷板覆盖所有部件,但由于部分部件可插拔、形态非标,存在技术难题,可进行一体化设计,所有元器件附着于主板,从而实现全覆盖冷板散热。(2)浸没式液冷浸没式液冷通过将发热元件浸没在冷却液中,直接吸收设备产生的热量。根据工质是否产生相变划分为单相浸没式液冷和双相浸没式液冷。单相浸没式液冷的冷却液在循环散热过程中始终维持液相,由于要确保冷却液不发生相变,单相浸没技术通常使用高沸点的冷却液,同时满足绝缘性强、黏度低、腐蚀性小,毒性小等性能要求,常用氟碳化合物和碳氢化合物(
28、矿物油、合成油、天然油等),具有部署成本低、安全性高等优势。双相浸没式液冷方案下,在密闭的浸没式箱体中安装放置服务器/交换机和低沸点的冷却液,冷却液受热升温,达到沸点后沸腾发生相变,由液态变为气态,同时产生大量蒸汽,蒸汽逃逸升腾至箱体顶部,遇到水冷冷凝器后热量被吸收,凝结成液滴,滴落回容器再次冷却循环,冷凝器中被加热的冷却水则通过循环冷却水系统完成排热。用于双相浸没式的冷却液需要有更稳定的物理特性、化学及热稳定性、无腐蚀性、合适的沸点、较窄的沸程范围以及较高的汽化潜热,一般选用硅酸酯类、芳香族物质、有机硅、脂肪族化合物以及氟碳化合物作冷却液。浸没式液冷对服务器及浸没腔体有较高要求,需要对腔体进
29、行定制,采用高密设计,同时采用结构定制化设计,满足液体与发热器件之间的热交换和电子设备的运维要求。1 飞 oooooooooon 、 制区冷凝管戚务周服务器使用侧循环泵夜冷槽图表10:浸没式液冷原理示意图液冷槽板式换热器冷源侧八循环泵 / (OO OO OOl -zVoooooooooo室外散热设备I ) 1) 1)干冷器/闭式冷却塔/IMMM冷水机组a单相浸没式液冷OO OO OO000000000U室外散热设备/ 112干冷器/闭式冷却塔/1111111 冷水机组b两相浸没式液冷(3)喷淋式液冷喷淋式液冷和发热器件直接接触,依靠泵压或重力驱动,向发热设备自上而下精准喷淋,吸收并带走热量,排
30、走的热流体与外部环境冷源进行热交换,冷却液无相变。喷淋式液冷的冷却液需具备绝缘、导热、抗氧化性等特点,不发生相变,但在喷淋过程中存在液体飘逸和挥发问题,应用成本较高,且不适合高密度服务器和超大规模数据中心。第二节数据中心产业液冷技术应用概况近年来,数据中心趋向高密化,行业内对液冷技术的关注度提升。但从行业渗透来看,中国数据中心领域液冷应用尚未实现规模化。现阶段数据中心市场以通用算力部署为主,风冷冷却方案能够满足大部分传统数据中心散热需求,液冷技术主要应用于超算、智算领域,部分头部行业用户进行少量试点应用。伴随大数据、算力、算法快速迭代,人工智能、云计算、区块链等新技术应用,带来大量高算力需求,
31、数据中心将向高密方向发展,液冷应用需求将逐步增长。液冷数据中心可采用冷板式液冷、浸没式液冷和喷淋式液冷三种技术路线,根据科智咨询统计冷板式液冷方案应用比例达到91%,是现阶段及未来较长一段时间的主流技术形式。冷板式液冷具有良好的兼容性,不需要对数据中心机房进行大规模改造;散热效率高,可降低PUE至1.2以下,且液体不与设备接触,可靠性高、易展开维护性设计,噪音低,空间利用率高、且热能可回收。与浸没式液冷相比,热交换受到冷板的限制,节能效果相对降低。浸没式液冷和喷淋式液冷直接接触冷却液,兼容性差,专用机柜对于管路要求高,维护复杂,且存在冷却液挥发的问题,运行成本较高。图表12:数据中心液冷技术方
32、案对比对比项冷板式液冷浸没式液冷喷淋式液冷接触形式冷却液不接触发热体,采用导热板传热冷却液浸泡发热体冷却液喷淋发热体建设成本主要成本在换热系统和冷却系统,成本适中冷却液用量较多,与冷板式相比,成本高通过改造机柜增加必须装置,成本较小服务器改造成本需要定制冷板,成本高基本无需改造,成本较低改动小,成本中等运维成本运维成本低运维成本适中运维成本适中冷却液冷却液用量小,要求低冷却液使用量大,对冷却液安全性要求高冷却液用量适中,要求高服务器兼容性根据服务器定制冷板,兼容所有机器根据冷却液不同,需进行兼容性测试根据冷却液不同,需进行兼容性测试空间利用率较高中等中等噪音程度较低低较低环境影响无冷却液相变过
33、程可能会导致气体蒸发外散冷却液雾滴和气体可能散发到机箱外冷却效果较好优秀优秀使用场景无限制有限制有一定限制应用程度目前应用最广泛适用于对功率密度、节能性要求较高的大型数据中心不适合高密度服务器和超大规模数据中心,现阶段落地应用相对较少主流供应商超聚变、浪潮曙光数创广东合一信息来源:科智咨询第三章中国液冷数据中心市场发展现状分析根据科智咨询,2022年,中国液冷数据中心市场规模达到100.5亿元,同比增长47.2%,其中,液冷服务器市场规模80.3亿元,同比增长45.5%。政策鼓励发展、需求即将爆发、技术趋于成熟推动下,液冷数据中心市场进入较快发展阶段,但同时产业发展面临标准不统一、产业链生态不
34、完善、技术验证不成熟等阻碍因素,需要液冷系统各部件企业积极合作,协同推进液冷供给侧优化。第一节中国液冷数据中心产业链一、液冷数据中心产业链构成液冷数据中心产业链由上游液冷产品零部件及设备厂商、中游液冷产品及解决方案提供商、下游液冷数据中心应用主体构成。上游液冷产品零部件及设备包括冷却液、CDU、电磁阀、连接器、manifoldTANK等;中游是产业链核心环节,主要为液冷服务器、基础设施服务商以及液冷系统集成方;下游为液冷数据中心终端用户,主要包括政府相关单位、基础电信运营商、泛互联网厂商及能源、生物医药、AI等相关领域企业。图表13:中国液冷数据中心产业链图谱上游:液冷零部件中游,液冷服务器及
35、基础设施下游I液冷数据中心用户FUSION H3Cinspur 湖 LenovoNoctriXTmZn冲兴伴随液冷市场热度攀升,产业链上下游企业积极拓展业务布局,布局产业链核心价值控制点。产业上游连接器方面,国内企业高端精密连接器的研发能力和工艺技术不断提升,在液冷连接器领域,中航光电和英维克为行业龙头企业。冷却液是浸没式液冷技术的关键原材料,代表厂商包括纯均光冷、巨化股份等,安徽星载、云酷智能等部分液冷基础设施服务商正在尝试自研冷却液。CDU主要由机箱、水泵、板换、阀、膨胀罐、管路等部件组成,起到热交换作用,目前科华数据、同飞股份等企业均有布局。产业中游,超聚变、浪潮、宁畅、联想、新华三等液
36、冷服务器厂商依托IT核心部件,掌握产业链核心价值控制点,同时基于服务器产品提供综合性解决方案及服务,其中,超聚变业务发展较快,根据IDC咨询,超聚变2022年中国区标准液冷服务器出货量第一。曙光数创、申菱环境、云酷智能等设备厂商凭借在精密温控领域的技术及经验,提供液冷基础设施产品及解决方案。除冷却系统外,液冷数据中心与传统数据中心的设计、建设差异性较小,曙光、华为等数据中心集成商及润泽、秦淮、中联云港、科华数据等具有综合建设能力的第三方IDC服务商具有一体化交付能力和服务经验,为终端用户提供液冷数据中心集成建设服务。产业下游,以字节跳动、阿里等为代表的头部互联网企业基于技术及资金优势,进行液冷
37、应用试点,希望形成成熟的解决方案以实现降本增效;同时,头部互联网企业业务发展需要大量高密计算场景,是现阶段液冷市场主要需求方,也是推进液冷产业发展的关键力量。基础电信运营商在产业链中扮演多重角色,一方面,运营商拥有大量自用数据中心和市场型数据中心,是现阶段液冷数据中心重要客户;另一方面,运营商依托其数据中心整体设计能力,积极参与液冷市场建设,推进市场规范化、标准化进程。色;未来,算力网络、算力调度等算力产业生态持续完善,将驱动数据中心业务模式变化,IDC服务商的商业模式或将从提供基础设施延展至提供算力服务,成为液冷数据中心下游终端用户。二、液冷数据中心产业链运行机制液冷数据中心部署涉及液冷数据
38、中心系统架构层、液冷部件及接口层、液冷基础设施层、液冷监控系统层等多方面,需要各零部件之间协同适配,具有高度定制化特征,各厂商不仅需要提供相关零部件,同时要参与到系统设计、实施、运维等全部署流程,提供解决方案服务。为便于各环节定制,现阶段终端用户在部署液冷系统时更倾向于一体化采购模式,由总包方进行综合协同,总包方一般为两类群体,一是服务器厂商,服务器与其他零部件的适配是系统部署的关键环节;二是具有机房设计、建设能力的数据中心总包方或IDC服务商,对于数据中心技术架构具有深刻理解,协助终端用户进行液冷系统部署。液冷服务器直接关系到终端用户业务运行,是核心价值所在,一般由用户直接采购;液冷基础设施
39、涉及零部件分繁多,市场标准不一,用户更倾向于委托总包方进行采购部署。图表14:液冷数据中心业务落地流程示意图终端用户开始需求发起阶段发起需求产品及解决方案供应阶段液冷数据中心建设液冷基础设 施采购需求液冷服务 器采购需数据中心集成建设方发起液冷基 础设施需求提示:市场中存在由液冷服务 器厂商采购液冷基础设施,向 终端用户提供“服务器建础 设施体化服务的情况集成与建设液冷服务器厂商.提供液冷基础设施 产品及解决方案.提供液冷服务器产品及解决方案服务器与其他部件适配液冷基础设施提供商第二节中国液冷数据中心市场规模一、液冷数据中心整体市场规模近年来,中国液冷数据中心市场快速发展,保持30%以上的市场
40、增速。根据科智咨询,2022年,液冷数据中心市场规模达到100.5亿元,同比增长47.2%,较之前年份有较大规模提升。节能政策、市场需求以及液冷技术标准化进程的推进,共同驱动2022年液冷数据中心市场热度空前。政策方面,2020年以来,国家出台新基建政策,鼓励数据中心建设与发展,但数据中心大规模落地加剧能耗问题,发改委等部门发布相关政策,明确要求到2025年全国新建大型、超大型数据中心PUE低于1.3,东数西算国家枢纽节点PUE应低于1.25。各省市也陆续布政策,对既往及新建的数据中心提出了相关要求。随着“双碳”压力不断加大,传统风冷式数据中心逐渐无法满足数据中心节能降耗需求,液冷技术逐步成为
41、行业共识。2022年,液冷需求迎来一波增长高潮,头部泛互联网企业出于降本增效考量,进行高密部署,同时通过应用液冷技术降低运营成本;基础电信运营商加大液冷技术试点力度,在全国范围内部署200+液冷数据中心试点项目,拉动液冷市场增速出现较大幅度提升。标准化、规范化是液冷技术进入大规模商用阶段的主要阻碍。2021年12月,腾讯、华为等参与起草的首批数据中心液冷系列行业标准正式发布,2022年4月1日正式实施,行标的出台推进液冷行业发展迈出关键一步。图表15:2019-2022年中国液冷数据中心市场规模(亿元)注:液冷数据中心市场规模统计维度包括液冷服务器和液冷数据中心基础设施市场规模。数据来源:科智
42、咨询现阶段,液冷数据中心市场增长主要来自冷板式技术方案的应用。冷板式液冷对于服务器及相关部件的改动较小,技术发展较为成熟,经过较长时间的市场应用,已经形成相对完整的产业链生态,总体成本可控。相比浸没式方案,冷板式液冷不改变客户的使用习惯,硬盘、光模块等部件与风冷一致,运维模式、机房承重与风冷场景也基本一致,同时单点散热能力在70OW以上,可以有效降低数据中心PUE,更适合规模商用,应用比例超九成。根据科智咨询,2022年,冷板式数据中心市场规模达到90.5亿元,同比增长45.4%,占整体数据中心市场规模比例达到90%。浸没式方案主要应用于超算中心,部分头部企业出于技术验证考虑部署少量试点,商业
43、化进程相对滞后。图表16:20192022年中国冷板式液冷数据中心市场规模(亿元)注:冷板式液冷数据中心市场规模统计维度包括冷板式液冷服务器和数据中心基础设施市场规模。数据来源:科智咨询二、液冷数据中心细分领域市场规模1、液冷服务器市场规模液冷冷却方案的市场渗透率逐步提升,带动液冷服务器出货量快速增长。2022年,中国液冷服务器市场热度攀升,市场规模达到80.3亿元,同比增长45.5%。一方面,头部互联网企业及三大基础电信运营商积极推进液冷项目试点,采购液冷服务器;另一方面,主流服务器厂商加快布局液冷领域,推出液冷服务器产品,推进与液冷基础设施产品之间的技术测试及适配进程。图表17:20192
44、022年中国液冷服务器市场规模(亿元)注:液冷服务器市场规模统计维度为当年终端用户液冷服务器应用规模。数据来源:科智咨询2、液冷基础设施市场规模液冷数据中心基础设施为液冷服务器提供稳定运行环境,需要根据服务器材质、型号以及项目的实际情况进行定制化设计及生产,市场增长略滞后于液冷服务器市场。2022年,中国液冷数据中心基础设施市场规模为20.2亿元,同比增长54.5%,实现大幅提升。图表18:201%2022年中国液冷数据中心基础设施市场规模(亿元)注:基础设施市场规模统计维度为当年新增的液冷数据中心基础设施部署规模。数据来源:科智咨询第三节中国液冷数据中心市场发展特征1、液冷数据中心产业向快速
45、成长阶段迈进现阶段,中国液冷数据中心产业处于起步阶段向快速成长阶段发展的过渡时期。经前期积淀,国内液冷市场初具规模,保持较快增长;产品及技术解决方案基本成型,但最终技术选型还需要经过一定周期的验证和市场筛选;行业用户逐步扩大液冷试点,仅部分头部互联网企业开展规模化应用,行业需求尚未进入爆发期;市场参与方数量增加,各类型企业纷纷布局液冷领域,开拓新产品,探索新的业务模式。液冷数据中心发展对于产业生态建设有较高要求,目前市场发展不成熟,存在生态不健全、标准不统一的问题,产业链上下游企业在业务竞争的同时,积极寻求技术验证、产品适配等方面的生态协作,推进液冷数据中心市场突破瓶颈,迈入快速发展阶段。图表
46、19:中国液冷数据中心产业生命周期2013年,技术验证 国内完成首台冷板 式液冷服务器原理 机和首台浸没式液 冷原理验证2015年,首个规模商 用液冷项目落地2017-2022年,服务 器厂商积极布局,推 动液冷团标发展,发 布液冷系列产品互联网企业、电信运管商液冷需求显现, 商业化部署需求快速提升产业链生态建设深入推进,行业标准趋于 统一超算是液冷主要用户2013 年2015 年2023 年信息来源:科智咨询2、液冷数据中心涉及技术复杂,行业壁垒较高液冷数据中心技术密集,对产品性能及可靠性要求高。液冷核心产品生产需要兼顾压力、温度、流量、功率等,并考虑与数据中心冷源系统、输配系统等方面的适配度,形成较高的技术门槛。例如,液冷连接器要求防水密封、高耐用度及材质兼容性,众多技术要点保证其可靠性和绝对密封性。同时液冷技术碎片化特征明显,技术路径、产品规格多