文本描述
金融业绿色高可用数据中心建设实践
金融业绿色高可用数据中心建设实. 践
曙光信息产业股份有限公司 北京金融信息化研究所有限责任公司
新华三技术有限公司 中国联合网络通信有限公司
北京中科仙络智算科技股份有限公司
*
摘 要: 数据中心作为支撑数字经济发展的坚实底座, 市场规模增长迅
速, 但随着数据中心行业的高速发展, 其高能耗和碳排放问题
也备受社会关注。 国家及各地方纷纷出台关于绿色数据中心建
设、 新型数据中心绿色高质量发展的政策及指导意见, 以助力
实现碳达峰碳中和战略目标。 本报告基于 “ 双碳” 战略、 “ 十
四五” 发展规划等政策指社会科学文献出版社版权所有,浙江大学图书馆下载使用引, 对金融业绿色数据中心的设计
与建设进行阐述。 本报告介绍了金融业绿色数据中心的设计与
建设, 取代大部分冷机等高能耗制冷设备, 增加了液冷系统及
相应的管路、 配电等设计; 从散热、 供电、 容灾、 应急预案等
几方面, 介绍了绿色数据中心的高可用设计; 介绍了绿色数据
中心各系统监管控、 运维设计; 以及金融场景可落地、 有示范
价值的具体应用实践。
关键词: 金融业 金融数据中心 绿色数据中心
执笔人 常乾坤 崔雨萍 柳春飞 曙光信息产业股份有限公司 潘世杰 陈晨 北京金融
* : 、 、 , ; 、 ,
信息化研究所有限责任公司 王旭东 蔡学识 新华三技术有限公司 卢薇青 王志伟 中
; 、 , ; 、 ,
国联合网络通信有限公司 杨毅 纪红旭 北京中科仙络智算科技股份有限公司
; 、 , 。
151 金融科技蓝皮书
一 金融业绿色高可用数据中心建设背景
(一)相关政策要求
近年来 我国大力发展数字经济 金融业作为支撑数字经济发展的重要
,
行业之一 在数字化能力日益增强的同时对数字基础设施的需求持续增加
,
数据中心成为推动金融机构数字化的重要基石年 月 国家发展改革委发布 全国一体化大数据中心协同创新 2021 5 , 《
体系算力枢纽实施方案 提出推动数据中心绿色集约可持续发展 加快应
》, ,
用节能低碳技术 提升能源利用效率 降低数据中心能耗 推动老旧基础设
, ,
施转型升级 年 月 国家发展改革委等多个部门发布 贯彻落实碳
2021 12 , 《
达峰碳中和目标要求 推动数据中心和 等新型基础设施绿色高质量发展 5G
实施方案 提出到 年 全国新建社会科学文献出版社版权所有,浙江大学图书馆下载使用大型 超大型数据中心
》, 2025 , 、 PUE (Power
电能利用效率 降到 以下 国家枢纽节点进一步降
Usage Effectiveness, ) 1. 3 ,
到 以下 绿色低碳等级达到 级以上1. 25 , 4A 。
同时 金融行业作为服务民生的重要行业 保证业务连续性是金融行业
,
的特殊属性之一 行业监管机构对此也发布了相关要求 年 月 银
。 2011 12 ,
监会发布 商业银行业务连续性监管指引 提出重要业务
《 》, RTO (Recovery
数 据 恢 复 时 间 不 得 大 于 小 时
Time Objective, ) 4 , RPO ( Recovery Point
数据恢复点目标 不得大于 分钟 中国人民银行在 年
Objective, ) 30 。 2021 12
月发布的 金融科技发展规划 年 中提出要建设绿色 智
《 (2022—2025 ) 》 、
能 高可用金融数据中心
、 。
基于上述国家施行的 双碳 战略及行业监管机构对金融行业的业务连
“ ”
续性要求 金融数据中心的建设重点集中于 绿色 和 高可用 两个方面
“ ” “ ” 。
(二)金融数据中心现状
中国信息通信研究院在 年指出 大型金融企业数据中心已基本形 2020 , 152 金融业绿色高可用数据中心建设实践
成两地三中心的布局 金融数据中心整体规模不大 超九成数据中心机柜数
,
量小于 个 同时大多数金融数据中心的 在 以上 近年来 金 200 , PUE 1. 5 。 ,
融机构数据中心规模不断扩大 小于 个机柜的数据中心的数量占比逐渐
200
降低 上架率逐渐提升 超过 的数据中心上架率超过 单机柜功
, 80% 50%,
率在 超过 的数据中心 低于 大部分数据中心 1kW ~ 10kW, 25% PUE 1. 5,
为 总体来说 金融机构对数据中心的需求在扩增 同时在
PUE 1. 5 ~ 2. 0。 , ,
努力降低数据中心能耗水平 向绿色低碳的目标迈进
。
(三)金融业绿色高可用数据中心发展趋势与建设需求
近期 随着大数据 人工智能等技术发展 金融机构加快在相关领
、 ,
域布局 数据中心的需求发生变化且不断扩张 未来 金融数据中心的
。 ,
单机柜功率增高 机构将部署更多的高密度机柜 数据中心在机柜尺寸
, 、
供电 制冷等多方面的设计都会发生变化 此外 金融机构将进一步加
、 。 ,
强数据中心的自动化 智能运维 保障社会科学文献出版社版权所有,浙江大学图书馆下载使用数据中心 小时不间断运作
/ , 7 × 24 ,
预警风险点并提前处理 在保障数据中心高可用的同时 降低运维人力
,
成本
二 金融业绿色数据中心设计与建设
以液冷数据中心为例 液冷方式对数据中心的设计要求主要体现在占地面积更小 主机房设计荷载要求更高 因液冷方式允许部署高功率密度机
、 (
柜 需预留液冷管路铺设空间和液冷设备检修维护空间等 相较于传统风
)、 。
冷数据中心 液冷数据中心以液冷系统取代冷机等高能耗制冷设备 可实现
,
更低的 更加节能低碳 在同样外电容量下 液冷方式允许配置更多
PUE、 , ,
的 设备 可最大限度地提高能源和空间利用率
IT , 。
(一)土建设计与建设
液冷技术利用液体作为换热媒介在靠近热源处进行换热制冷 由于液153 金融科技蓝皮书
体具有相对较高的比热容 其解热能力远高于风冷 因此液冷数据中心的
,
单机柜功率密度往往是传统风冷数据中心的数倍甚至几十倍 此外 液冷
,
数据中心的液冷负荷占比较大 对于冷机等机械制冷设备的需求较小 制
,
冷机房 蓄冷设备等机械制冷系统占地面积需求也更小 因此同等 规模
、 , IT
的液冷数据中心的建筑面积往往小于传统风冷数据中心 更高的单机柜功率密度意味着更大的设备自重 因此液冷数据中心的主机房设计荷载一般需要达到 2 并且根据实际部署情况 对楼板的承重要求也会 10 ~ 25kN / m , ,
有所差异在主机房的设备布置上 采用冷板型液冷系统的机房与传统风冷数据机房布置基本相同 但是由于需在架高地板内敷设冷板液冷二次侧管路 架高
,
地板的敷设高度一般建议不低于 通道架高地板下敷设冷板液冷二 600mm,
次侧管路时 通道的宽度一般建议不小于
1200mm。
单相浸没式液冷系统多采用 卧式 机柜作为浸没腔体 二次侧管路
“ ” ,
可敷设于机柜侧面 也可敷设于架高地社会科学文献出版社版权所有,浙江大学图书馆下载使用板内 相变浸没式液冷系统单机柜的
。
功率密度更高 机房往往需要 以上的架高地板空间用于部署换热设
1500mm
备 机柜间通道宽度除了满足管路敷设要求外 还需要保留 以上的
, 1400mm
净宽度用于地板下浸没液冷散热设备的检修维护(二)散热设计与建设
按液冷室内末端与服务器等发热热源接触方式可将液冷技术分为间接液
冷技术和直接液冷技术 间接液冷以冷板为主 直接液冷主要是浸没式
, 。
液冷系统主要解决 设备部分或全部发热零部件的散热问题 系统中
IT ,
仍有部分 设备或 设备零部件如硬盘 交换机等需要风冷形式散热 配
IT IT 、 ,
电系统 照明系统 通风系统等的冷负荷也无法通过液冷系统制冷 因此
、 、 。 ,
液冷数据中心仍会有一部分热量需要机械制冷系统进行散热 这部分设计和传统风冷数据中心并无不同液冷系统的换热主要分为一次侧换热系统和二次侧换热系统两部分 二次侧与发热热源通过直接 间接换热的方式获取热量并将其传递给一次侧
/ , 154 金融业绿色高可用数据中心建设实践
一次侧通过室外散热设备将热量传递至室外完成整个散热过程 一次侧换热系统与二次侧换热系统通过液冷换热单元 简称 或液冷换热模
( “ CDU” )
块 简称 的换热器进行换热
( “CDM” ) 。
设备往往对水质有较高的要求 因此一次侧通常采用闭式冷
CDU / CDM ,
却水循环系统 闭式冷却塔是常采用的散热设备 如采用开式冷却塔则需要
,
在冷却塔与 间增加中间板换 以保证 设备的进出水水
CDU / CDM , CDU / CDM
质 液冷系统对一次侧的水温适用范围更广 设备一般支持
, CDU / CDM 33℃
以上的一次侧进入温度 的换热温差 因此在全国范围内均可全年
8 ~ 10℃ ,
进行自然冷却散热(三)供电设计与建设
液冷数据中心单机柜密度远高于传统风冷数据中心 因此末端的配电线缆截面更大 对管线空间要求更高 浸没式液冷计算设备宜采用直流
, 380V
供电 降低线路损耗 社会科学文献出版社版权所有,浙江大学图书馆下载使用
。
数据中心的传统供电方式是使用交流供电系统对 服务器进行供电
ICT ,
然而服务器是直流用电设备 末端要配置开关电源将交流电进行整流和
DC /
变换 才可供服务器主板上的各类元件使用
DC , 。
整个系统从电网电源侧传递至最终的服务器 先后经历了
AC / DC、
四个能量变换环节 每一个环节都有相应的能量
DC / AC、 AC / DC、 DC / DC ,
损耗 并且每增加一个能量传递环节 系统的可靠性就会相应地有所下降
, 。
近些年来 直流电相关技术在电力 通信 电动汽车等领域发展迅猛
、 、 。
随着电力电子技术的发展 以及末端用电设备中直流设备的比重与日俱增
,
直流供配电的技术优势逐步显现 采用高压直流供电的数据中心 电
, 10kV
源经过 配电变压器 低压配电柜 高压直流电源 最终为服务 10kV / 400V 、 、 ,
器提供 直流电源 380V 。
(四)