

自 ChatGPT 问世以来,在新一轮 AI 波澜的席卷下,智算需求迟缓加多,这也推动了 IDC 向着 AIDC 迈进。《算力基础圭表高质地发展活动贪图》中指出,到 2025 年,缱绻力方面,算力范围卓绝 300 EFLOPS,智能算力占比达到 35%。
从如今国内 IDC 市集发展近况上看,现在通用算力也曾有供大于求的趋势,而智能算力则是相称紧俏,一方面,芯片的空泛是影响智算发展的伏击要素之一;另一方面开云体育,跟着摩尔定律迟缓"失效",似乎依靠"粗暴"堆叠芯片,已成为当下知足智算需求的最好旅途,这也对数据中心的电容、制冷等诸多系统提议了新的条目。
在 IDC 向着 AIDC 演进的历程中,预制化、绿色化、智能化也曾成为当下产业上前发展的"三板斧"。
数据中心步入预制化期间
设立一座支握万卡的数据中心需要多久?
若是从土建启动算起,在一切告成的情况下,不祥需要 12 个月的委用周期,关于朔方存在"冻土期"(冻土期不行进行土建施工)的数据中心而言,可能这个时期还会更久。
大模子的变化有多快?
短短 2 年时期,大模子也曾席卷了各行业,各行业关于算力,尤其是智能算力的需求呈现式井喷式的增长。
其实不光是大模子,早在大模子之前的互联网期间,互联网企业关于业务部署的速率条目亦然越来越快,在这个"唯快不破"的年代,早一天上线业务,就能早一天赢利,就能早一天占据市集。而这也导致了企业关于底层撑握的数据中心设立速率的条目。
对此,普洛斯中国高等副总裁、数据中心业务联席总裁郭仁声暗意,用户如今关于数据中心委用周期的条目很高,皆但愿早点上线业务,这也就对数据中心设立提议了更高的条目,而预制化、模块化的格式,不错匡助用户在更短的时期,保质保量的完成委用,"明天,预制化的模式会成为数据中心设立的一种主流格式。"他指出。
预制化数据中心即是将数据中心中的各个系统进行模块化明白,比如将制冷、变电站、供配电等不同的功能模块,通过预制化的有斟酌,在工场进行标准化的坐褥,并进行测试,确保达到使用条目,再拉到施工现场,进行组装,郭仁声说,"预制化的上风在于,一是不错完结快速的委用,二是减少了现场的安全测试智商,委用质地更有保险。"
以普洛斯常熟东南数据中心为例,总建筑面积 15 万平日米,IT 负载达 120MW,可为卓绝 30 万台处事器提供圭表和升值处事。样式接纳了多系统预制化的有斟酌,对变电站、冷冻站、钢结构 / 热通说念等进行模块拆分、工场预制化及现场组装设立,在 7 个月内就完结了改建样式一期的落地委用(建筑面积 6 万多平日米,IT 负载 65 兆瓦),而传统有斟酌平均要接近一年的时期才能完成,工期镌汰了接近一半。而总计这个词设立历程中还包括了一般数据中心不会单独设立的一个 110 千伏变电站。
除此之外,通过预制化、模块化的格式,也不错诽谤数据中心全人命周期的碳排放,侧面推动了数据中心举座的碳中庸程度。
鱼和熊掌需兼得
从产业角度上看,预制化、模块化的设立数据中心仅是数据中心节能减排的"冰山一角",在算力需求与碳中庸需求的双重影响下,IDC 在向 AIDC 演进的历程中,如何完结算力与碳中庸的"鱼和熊掌兼得"也成为近几年来产业高下贱企业共同悉力的看法。
有业内民众指出,在国度碳中庸目的的指令下,数据中心行业股东碳中庸是势必的趋势,与此同期,为了确保数字工夫的发展,数据中心四肢底座,其算力保险亦然必不可少的,而如何完结二者的兼得,就成为明天很长一段时期内,产业需要共同面对的话题。
在算力方面,阐明市集调研,现在绝大多数芯片厂商的 GPU 愚弄率皆在 30% 以下,"这种情况一方面形成了企业需要堆叠更多的芯片,才能知足需求,进而使得投资本钱更高;另一方面,也形成了资源花费的征象。"该名民众指出,"从工夫角度起程,如何提高 GPU 愚弄着力、算力资源愚弄着力,是现在业内在算力方面最需要处分的问题。"
在碳中庸方面,数据中心四肢公认的高载能行业,尤其是在 AI 期间,单机柜功率也曾从原先通算期间的 2.5KW/ 机柜,高涨到 6KW、8KW、12KW/ 机柜,以致在某些特定的场景下,单机柜功率也曾不错达到几十千瓦,若是还使用传统的模式的话,数据中心的能耗将进一步高涨。
此时,就需要从两维度对数据中心进行升级优化。当先,即是数据中心供配电系统,一方面,传统的供配电系统也曾不行知足解析地为数据中心进行供配电,新的架构下,自建变电站以提高解析性的数据中心越来越多,而普洛斯常熟东南数据中心即是这其中一个典型的代表。
另一方面,提高供配电系统的着力亦然现在数据中心行业相比聚焦的一个问题。针对此,现在数据中心内相比常见的提高供电着力的操作是接纳高压直流的格式进行供电。对此,郭仁声暗意,普洛斯常熟东南数据中心就接纳了高压直流供电的格式,"一方面,高压直流提高了数据中心供配电的解析性,另一方面也提高了数据中心的供配电着力,从而在波折省俭了电费的支出的同期,还能诽谤数据中心举座的碳排放。"郭仁声如是说。
相较于传统的 UPS 疏通供电系统,一方面,高压直流的供电模式接纳模块化设想,不错机动扩容,且每个模块的负载率可达 70%~80%,比传统 UPS 系统高。
另一方面,由于去掉了逆变智商(传统 UPS 系统结构相对复杂,包含多个变换智商和冗余设想,以提高供电可靠性),减少了能量损耗,举座着力更高,一般来讲,高压直流系统的着力可高达 96% 以上,有些特地优化的以致可达 98%~99% 阁下,比传统 UPS 系统高近 10%。
除了在供配电系统方面的优化升级之外,四肢数据中心能耗"大头"的制冷系统也跟着机柜功率的高涨,迎来了新的变革。
其实供冷的变革早在生成式 AI 爆火夙昔就也曾启动了。彼时,机柜的功率也曾启动呈现出迟缓增长的趋势,诸如 AHU 波折挥发冷却、阻滞冷 / 热通说念、轮回冷冻水、天然冷却等在内的多项新一代供冷工夫也曾迟缓在数据中心中得以应用。
跟着生成式 AI 的到来,液冷工夫在数据中心中的发展也迎来了爆发。天然是纯液冷,照旧风液搀杂;是浸没式液冷,照旧冷板式液冷,在行业内仍存在相比大的争议,但似乎液冷也曾成为智算中心的"标配",用户关于液冷的禁受度也越来越高,据了解,普洛斯常熟东南数据中心就有与用户一说念作念的液冷试点案例。
而普洛斯在液冷方面的布局也不是个例,当下关于液冷居品的布局也曾不仅局限在开辟厂商,越来越多诸如普洛斯、秦淮数据、世纪互联这么的头部 IDC 处事商在这个边界进行深度布局。郭仁声暗意,液冷的应用,一方面成绩于工夫的老练与机柜功率变大,让液冷不再是"杀鸡用牛刀";另一方面,用户关于液冷的禁受度,以及 IDC 全产业的碳中庸条目,也推动了这项工夫在数据中心中的应用,"普洛斯在液冷方面也有着深化的布局,而相较于其他 IDC 处事商而言,咱们的上风在于有包括管路、冷却液、阀门等在内的液冷全供应链体系。"郭仁声如是说。
面对算力与碳中庸的"鱼和熊掌兼得",是全产业需要共同面对的话题。
AI for DC
在数据中心减排的路上,AI 工夫也不错为数据中心提供更好地支握。AI 工夫在运营料理的应用也成为 IDC 处事商提高中枢竞争力,完结降本增效历程中伏击的一环。
通过数智化的妙技,提高数据中心运营料理着力和质地也曾成为当下数据中心"通例操作",诸如动环监控、极早期预警等系统在数据中心的应用也已层出不穷。对此,郭仁声暗意,现阶段,IDC 处事商为了加强运营料理,除了需要具备专科的运维团队之外,更为伏击的是,要通过智能化的用具更好地支握数据中心的运营料理,"普洛斯为此自主研发了 GLP DCBASE 聪敏化运营料理系统,打造了跨数据中心、跨城市的数字孪生的运维料理监控平台。"郭仁声先容说念。
除了基础的动环监控等平台及系统之外,GLP DCBASE 聪敏化运营料理系统(简称 GLP DCBASE)还具备了 AI 预警的才气。具体来看,以普洛斯常熟东南数据中心为例,在该样式中,普洛斯愚弄 AI 预警的才气,相连国度容貌等信息,提前调遣机房供冷系统,温度高时提前开启机房空调,温度低时提前关闭机房空调,以致在进行 AI 瞻望以后,提前使用天然冷却完结机房制冷,"愚弄了这套 AI 预警系统后,在常熟样式上,一年就能省下上百万的制冷电费,"郭仁声指出,"现在,在宇宙范围投产的十几个数据中心皆实行了这项功能,每年可省俭大皆电费本钱。"
除了降本之外,AI 还能匡助数据中心运营料理完结增效。家喻户晓,数据中心需要对机房里面环境进行实时监控,以求确保处事器的安全解析,保证业务不中断,比如会对机房温度进行监控,同期还需要对网速、蓄电板寿命等智商进行监控,将这些数据"投喂"给 AI 以后,通过算法缱绻出常态解析值,"相较于原先的监测系统,通过常态解析值,不错不仅规矩‘红线’,"郭仁声指出,"当数值卓绝常态范围后,提前预警,运维东说念主员不错实时进行排查,随机候在用户发现预警夙昔,咱们就也曾处理结束,从而摒除了隐患,提高了运维着力的同期,还能提高用户举座的体验。"
容身国内 IDC 市集,除了普洛斯之外,诸如世纪互联、万国数据、秦淮数据等国内 IDC 龙头企业连年来也皆在纷纷尝试通过 AI 工夫,完结智能化运营,一方面有助于提高举座运营着力和处事质地,另一方面,也有益于优化运维东说念主员竖立,阻挡数据中心举座运维本钱。
而在郭仁声看来,AI for DC 毫不单是与此,"明天,咱们将束缚优化 GLP DCBASE 平台,一方面将诸如液冷这么的新的工夫的监控融入到平台之中,另一方面,从实施末端上,要束缚优化,兼顾节能减排和运营安全两方面,完结更细巧化地料理、机动调配。"郭仁声如是说。(本文首发于钛媒体 APP,作家|张申宇,剪辑丨盖虹达)