Že leta zgodba opodatkovni centerporaba energije je sledila predvidljivemu loku. Digitalizacija je seveda naraščala, vendar je povečanje učinkovitosti zaradi boljših strežnikov, virtualizacije in konsolidacije v oblaku ohranilo skupno porabo električne energije presenetljivo enakomerno. Globalno povpraševanje po energiji podatkovnih centrov se je večji del desetletja gibalo okoli 1 odstotka celotne porabe električne energije – približno 200 teravatnih ur letno.
To obdobje se končuje.
Konvergenca generativne umetne inteligence, rudarjenja kriptovalut, robnega računalništva in eksponentne rasti povezanih naprav je prekinila staro krivuljo učinkovitosti. Ocene industrije zdaj kažejo, da povpraševanje po energiji podatkovnih centrov raste po letnih stopnjah, kakršnih ni bilo od začetka 2000-ih. V nekaterih regijah – Irska, Severna Virginija, Singapur – podatkovni centri že predstavljajo 15 do 25 odstotkov celotne porabe električne energije, zaradi česar morajo regulatorji uvesti moratorij na novogradnje.
V tem ozadju so izbire infrastrukture, ki so se nekoč zdele tehnične podrobnosti – arhitektura hlajenja, topologija distribucije električne energije, načrtovanje gostote omare – postale odločitve v sejni sobi. Stroški energije niso več vrstična postavka. To je omejitev rasti.
Učinkovitost porabe energije ali PUE je že skoraj dve desetletji standardna metrika učinkovitosti industrije podatkovnih centrov. Gre za preprosto razmerje: skupna moč objekta deljena z močjo IT opreme.
PUE 2,0 pomeni, da gre za vsak vat, ki napaja strežnike in shranjevanje, še en vat za hlajenje, razsvetljavo, izgube pri pretvorbi energije in druge režijske stroške. PUE 1,2 pomeni, da režijski stroški porabijo le 0,2 vata na IT vat.
Industrija ima splošno sprejete stopnje, ki temeljijo na PUE:
| Raven | PUE | DCiE | Kaj to pomeni |
|---|---|---|---|
| Platinum | <1,25 | >0,80 | Učinkovitost svetovnega razreda, običajno zahteva prosto hlajenje ali tekočinsko hlajenje |
| zlato | 1,25 – 1,43 | 0,70 – 0,80 | Zelo učinkovito, dosegljivo s sodobno zasnovo v zmernem podnebju |
| Srebrna | 1,43 – 1,67 | 0,60 – 0,70 | Sprejemljivo za starejše objekte ali toplejše podnebje |
| bron | 1,67 – 2,00 | 0,50 – 0,60 | Tipično za stare podatkovne centre brez večjih predelav |
| pošteno | 2.00 – 2.50 | 0,40 – 0,50 | Slaba učinkovitost, visoki obratovalni stroški |
| Ubogi | > 2,50 | <0,40 | Kritična neučinkovitost, verjetno zahteva takojšnjo pozornost |
Težava je v tem, da veliko organizacij dejansko ne pozna svojega PUE. Ocenjujejo. Ugibajo. Ali pa merijo samo na glavnem komunalnem števcu, ostalo pa prevzamejo.
Industrijska raziskava iz leta 2023 je pokazala, da skoraj 40 odstotkov operaterjev podatkovnih centrov ni nikoli izmerilo PUE na ravni omare. Med tistimi, ki so to storili, je razlika med prijavljenim in dejanskim PUE v povprečju znašala 0,3 točke – dovolj za premik objekta iz zlatega v srebrnega, ne da bi kdo opazil.
Razumevanje, zakaj se PUE tako zelo razlikuje, se začne z iskanjem, kje moč zapusti podatkovni center.
V tipičnem zračno hlajenem objektu s PUE okoli 1,8 je razčlenitev videti približno takole:
Hladilna obremenitev je največja spremenljivka. Objekt v zmernem podnebju, ki uporablja zunanji zrak za prosto hlajenje, lahko za hlajenje porabi le 15 odstotkov svoje energije, ki ni povezana z IT. Isti objekt v tropskem podnebju z mehanskim hlajenjem skozi vse leto bi lahko porabil 40 odstotkov.
Zato ponudniki kolokacij oglašujejo PUE na ravni objekta, vendar dostavljajo PUE na števcu stranke – različne številke, različne posledice. Stranka plača vse.
Tradicionalno upravljanje podatkovnega centra je predvidevalo razmeroma statično okolje. Regali so se polnili več mesecev ali let. Hlajenje je bilo mogoče počasi uravnavati. Distribucija električne energije je bila predimenzionirana že od prvega dne.
Oblačna doba je spremenila domneve. Stojala se zdaj polnijo v dneh. Delovne obremenitve se samodejno prenašajo med strežniki. Grozdi umetne inteligence z visoko gostoto lahko porabijo trikrat več moči kot sosednje računalniške stojala za splošne namene.
Te spremembe so prisilile k ponovnemu razmisleku o upravljanju infrastrukture. Izstopajo trije trendi.
Prvič, gostota narašča neenakomerno.Standardna strežniška omara pred desetletjem je porabila 5-8 kilovatov. Danes regali za splošno uporabo porabijo 10-15 kilovatov. Visokozmogljivo računalništvo in stojala za usposabljanje z umetno inteligenco redno presegajo 30 kilovatov na stojalo. Nekateri presegajo 50 kilovatov.
To ustvarja izzive pri upravljanju toplote, ki jih zračno hlajenje težko reši. Pri 20 kilovatih na omaro ostaja zračno hlajenje učinkovito ob ustreznem zadrževanju. Pri 30 kilovatih postane mejna. Pri 40 kilovatih in več se tekočinsko hlajenje premakne z neobveznega na nujno.
Drugič, načrtovanje zmogljivosti je postalo napovedno.Stara metoda – kupite več zmogljivosti, kot je potrebno, in pustite, da miruje – ne deluje več v velikem obsegu. Neizkoriščena zmogljivost ima tako kapitalske stroške kot stroške tekočega vzdrževanja.
Sodobni sistemi za upravljanje infrastrukture uporabljajo pretekle podatke in napovedovanje delovne obremenitve, da napovejo, kdaj bo zmanjkalo energije, hlajenja ali prostora v omari. Najboljši sistemi lahko priporočijo, ali naj ponovno konfigurirajo obstoječo zmogljivost ali naročijo novo strojno opremo, dneve ali tedne preden omejitev postane kritična.
Tretjič, zahteve glede vidnosti imajo nprpanded.Tradicionalni podatkovni center lahko sledi moči na ravni PDU. Sodoben objekt potrebuje preglednost na ravni stojala, včasih na ravni strežnika in vedno bolj na ravni delovne obremenitve – vedeti, kateri virtualni stroj ali vsebnik poganja katero moč.
Infrastruktura podatkovnega centraProgramska oprema za upravljanje (DCIM) obstaja že več kot desetletje, vendar sprejemanje ostaja neenakomerno. Manj kot polovica poslovnih podatkovnih centrov ima nameščen celoten sistem DCIM. Mnogi, ki so uporabili le delček njegovih zmogljivosti.
Pravilno implementiran sistem DCIM naredi štiri stvari:
Upravljanje premoženja.Vsak strežnik, stikalo, PDU in hladilna enota se spremljajo v zbirki podatkov za upravljanje konfiguracije (CMDB). Lokacija, nazivna moč, omrežne povezave, zgodovina vzdrževanja – vse to. To se sliši osnovno, vendar številne organizacije še vedno spremljajo sredstva v preglednicah, ki med posodobitvami trajajo mesece.
Spremljanje v realnem času.Poraba energije na ravni PDU ali omare, temperatura in vlažnost na dovodnih in povratnih točkah, stanje hladilnega sistema, stanje baterije UPS. Alarmi se sprožijo, ko parametri odstopajo od nastavljenih vrednosti. Cilj je odkriti težave, preden povzročijo izpade.
Načrtovanje zmogljivosti.Sistem ve, koliko energije in hladilne zmogljivosti je na voljo, koliko je v uporabi in koliko je rezervirano za prihodnjo uporabo. Modelira lahko vpliv dodajanja novega stojala z visoko gostoto ali umika nabora starejših strežnikov.
Vizualizacija.Digitalni dvojček podatkovnega centra – omara za omarico, ploščica za ploščico – prikazuje trenutne razmere in operaterjem omogoča simulacijo sprememb. Dodajanje 10 kilovatov obremenitve v tretjo vrstico, četrti stolpec: ali to presega hladilno zmogljivost? Sistem se oglasi, preden kdo premakne opremo.
Zmanjšanje porabe energije v podatkovnem centru ni skrivnost. Metode so dobro razumljene. Izziv je izvedbena disciplina.
Zvišajte temperaturo dovodnega zraka.Večina podatkovnih centrov deluje hladno – 18 do 20 stopinj Celzija na povratku hladilne enote – ker so operaterji to vedno počeli. Smernice ASHRAE zdaj priporočajo 24 do 27 stopinj. Vsaka stopnja povečanja zmanjša hladilno energijo za približno 4 odstotke. Delovanje pri 26 stopinjah namesto pri 20 stopinjah prihrani 20–25 odstotkov hladilne moči.
Odpravite mešanje vročega in hladnega zraka.Zadrževanje vročega hodnika, zadrževanje hladnega hodnika ali navpični izpušni kanali prisilijo hladilni zrak, da gre tja, kjer je potreben, namesto da bi kratkotrajno krožil skozi sprednji del regalov. Samo zadrževanje običajno zmanjša hladilno energijo za 15-25 odstotkov.
Uporabite pogone s spremenljivo hitrostjo.Ventilatorji in črpalke s konstantno hitrostjo trošijo energijo pri delni obremenitvi. Pogoni s spremenljivo hitrostjo prilagajajo pretok zraka in pretok vode dejanskemu povpraševanju. Obdobje vračila naknadne vgradnje je običajno 1-3 leta.
Optimizirajte delovanje UPS.Večina sistemov UPS neprekinjeno deluje v načinu dvojne pretvorbe – pretvarja AC v DC in nazaj v AC, tudi ko je električno napajanje čisto. Sodobni sistemi UPS lahko preklopijo v ekološki način, ko to dopušča kakovost električne energije, in dosežejo 99-odstotno učinkovitost namesto 94-96 odstotkov. Kompromis je kratek čas prenosa na baterijo, če izpade električno napajanje. Pri obremenitvah IT z napajalniki, zasnovanimi za takšne prenose, je tveganje minimalno.
Sprejmite distribucijo višje napetosti.Distribucija moči pri 415 V namesto pri 208 V zmanjša izgube distribucije za približno 25 odstotkov. To zahteva združljive PDU-je in strežniške napajalnike, vendar številne sodobne naprave to podpirajo.
Podjetje Shangyu CPSY, visokotehnološko podjetje s poudarkom na infrastrukturi podatkovnih centrov, poroča PUE 1,3 za svoje modularne rešitve podatkovnih centrov. To uvršča podjetje v zlato stopnjo in se premika proti platinasti.
Zatrjevani 25-odstotni prihranek energije v primerjavi s konvencionalnimi zasnovami izhaja iz več dejavnikov. Modularni UPS sistemi z 97,4-odstotno učinkovitostjo na ravni sistema zmanjšajo distribucijske izgube, ki sicer znašajo 15-20 odstotkov. Natančne klimatske naprave s kompresorji s spremenljivo hitrostjo in ventilatorji EC prilagajajo moč hlajenja, da ustreza dejanski toplotni obremenitvi, namesto da delujejo s fiksno zmogljivostjo. In fizična postavitev - zadrževanje vročih hodnikov, optimalni razmik med regali, dvignjena tla s perforiranimi ploščicami ustrezne velikosti - obravnava upravljanje pretoka zraka, ki spodkopava številne sicer učinkovite objekte.
Certifikacijski portfelj podjetja vključuje ISO 9001 (upravljanje kakovosti) in ISO 27001 (upravljanje informacijske varnosti). Njegove uvedbe za stranke vključujejo partnerstva s Huawei, ZTE in Inspur, z izvoznimi instalacijami v Združenih državah, Združenem kraljestvu, Nemčiji, Franciji in Avstraliji.
Dolga leta je bilo tekoče hlajenje nišna tehnologija za superračunalniške centre. To se hitro spreminja.
Grozdi za usposabljanje z umetno inteligenco, ki uporabljajo grafične procesorje NVIDIA H100 ali prihajajoče B200, ustvarijo 30–50 kilovatov na omaro v izključno zračno hlajenih konfiguracijah. Pri teh gostotah zahteva zračno hlajenje visoke stopnje pretoka zraka – glasni ventilatorji, globoki regali in še vedno obroben nadzor temperature.
Tekočinsko hlajenje neposredno na čip odstrani 60-80 odstotkov toplote pri izvoru. Čipi delujejo hladnejše. Ventilatorji delujejo počasneje. Sobna klimatska naprava prevzame le preostalo toploto iz napajalnikov, pomnilnika in drugih komponent.
Povečanje učinkovitosti je precejšnje. Objekti s hlajenjem neposredno na čip poročajo o vrednostih PUE od 1,1 do 1,2. Kompromisi so višji kapitalski stroški, bolj zapleteno upravljanje puščanja in potreba po čiščenju vode v objektu.
Popolno potopno hlajenje – potopitev celotnih strežnikov v dielektrično tekočino – potisne PUE pod 1,1, vendar ostaja specializirano. Večina komercialnih podatkovnih centrov bo najprej sprejela hlajenje neposredno na čip, nato pa potopno za posebna območja visoke gostote.
Platforma podatkovnega centra SHANGYU vključuje določbe za arhitekturo zračnega in tekočinskega hlajenja, pri čemer priznava, da bodo prihodnje uvedbe visoke gostote zahtevale toplotno upravljanje na podlagi tekočin ne glede na zasnovo objekta.
Večina operacijskih ekip podatkovnih centrov še vedno deluje reaktivno. Zasliši se alarm. Nekdo raziskuje. Uporabljen je popravek. Cikel se ponavlja.
Prehod na prediktivno upravljanje zahteva tri zmožnosti, ki jih marsikatera organizacija nima.
Popolni konfiguracijski podatki.Osnova je vedeti, kaj je v podatkovnem centru – vsak strežnik, vsako stikalo, vsak PDU, vsaka hladilna enota. Brez natančnih podatkov CMDB je načrtovanje zmogljivosti le ugibanje.
Zrnata telemetrija.Merjenje moči na ravni stojala je najmanjše. Merjenje moči na strežnik je boljše. Dodeljevanje moči na ravni delovne obremenitve je najboljše, vendar ga je najtežje doseči.
Analitika, ki loči signal od šuma.Temperaturni skok na eni omarici lahko pomeni, da ventilator ne deluje. Temperaturni skok v polovici podatkovnega centra lahko pomeni okvaro hladilnika. Sistem mora razlikovati in ustrezno priporočati odzive.
Platforma DCIM podjetja SHANGYU zagotavlja podporo za naprave SNMP in Modbus, spletne vmesnike in aplikacijske vmesnike Windows ter integracijo z omrežnimi kamerami za slikanje, ki ga sproži dogodek. Navedeni cilji so enostavni: zmanjšanje dragih izpadov, zmanjšanje dnevnih obratovalnih stroškov s popolnim nadzorom okolja ter izboljšanje vidljivosti in sledljivosti upravljanja.
Poraba energije podatkovnih centrov predstavlja približno 1 odstotek svetovnega povpraševanja po električni energiji. Ta številka se sliši majhna, dokler je ne postavimo v kontekst. To je približno enako skupni porabi električne energije v Združenem kraljestvu.
Še pomembneje pa je, da se stopnja rasti pospešuje. Industrijske projekcije kažejo, da se bo povpraševanje po energiji podatkovnih centrov do leta 2030 povečevalo za 10–15 odstotkov letno, zaradi umetne inteligence, sprejemanja oblaka in nenehnega širjenja povezanih naprav. S to hitrostjo bi podatkovni centri do konca desetletja porabili 3-4 odstotke svetovne električne energije.
Povečanje učinkovitosti, zaradi katerega je poraba energije ostala nespremenjena v prejšnjem desetletju, je prišlo zaradi virtualizacije strežnikov (zmanjšanje števila fizičnih strežnikov), izboljšane učinkovitosti pogona (premik od vrtečih se diskov na SSD) in široke uporabe prostega hlajenja (uporaba zunanjega zraka namesto mehanskega hlajenja). Ti nizko viseči sadeži so bili večinoma pobrani.
Naslednji val učinkovitosti bo prišel s tekočinskim hlajenjem, distribucijo višje napetosti, nadzorom hlajenja, optimiziranim z umetno inteligenco, in – morda najpomembnejše – boljšo usklajenostjo med zmogljivostjo infrastrukture in dejansko obremenitvijo IT. Ta zadnji del zahteva vidnost v realnem času in napovedno analitiko, ki jo zagotavljajo sistemi DCIM, vendar le malo zmogljivosti v celoti uporablja.
Ali poznate svoj dejanski PUE, ne številke na specifikacijskem listu?Če niste merili na izhodu UPS in na vhodu IT opreme, ne veste. Razlika so vaši resnični stroški.
Ali se vaši hladilni sistemi borijo med seboj?V mnogih podatkovnih centrih so enote CRAC nastavljene s prekrivajočimi se pasovi temperature in vlažnosti. Ena enota razvlaževa, druga pa vlaži. Eden hladi, drugi pa ponovno segreva. To ni nenavadno. Prav tako ni učinkovito.
Kakšna je poraba energije vaših strežnikov v mirovanju?Podatki iz industrije kažejo, da tipični podjetniški strežniki porabijo 30–40 odstotkov največje moči, ko ne delajo ničesar. Zaustavitev ali preklop v stanje spanja neuporabljenih strežnikov je najvišja razpoložljiva mera učinkovitosti donosnosti naložbe. Je tudi najbolj spregledan.
Ali bi lahko dvignili temperaturo dovodnega zraka za dve stopinji, ne da bi kršili specifikacije opreme?Verjetno da. Večina opreme je ocenjena za 25-27 stopinj. Večina podatkovnih centrov deluje pri 20-22 stopinjah. Ta šeststopinjska vrzel predstavlja leta nepotrebne hladilne energije.
Kdaj ste nazadnje preverili učinkovitost svojega UPS-a?Učinkovitost z nazivno tablico je izmerjena pri polni obremenitvi s popolnim faktorjem moči. Realni izkoristek pri delni obremenitvi z realnim faktorjem moči je lahko 5-10 točk nižji.