AI ready, czyli jak przygotować centrum danych na sztuczną inteligencję
Cyfrowa transformacja biznesu nie zwalnia, a jej motorem napędowym stała się sztuczna inteligencja zasilająca niemal wszystkie działania – od analizy danych w czasie rzeczywistym po autonomiczne samochody. Sercem całej infrastruktury IT pozostają jednak centra danych. Sprawdźmy, co dla nich oznacza upowszechnienie platform AI.
CZEGO SIĘ DOWIESZ Z TEGO MATERIAŁU:
|
Wykorzystywanie modeli sztucznej inteligencji do operacji w niemal wszystkich obszarach biznesu oznacza, że konieczne stało się dostosowanie infrastruktury do nowych wymagań. Niesłychanie złożone modele AI podniosły poprzeczkę – zarówno jeżeli chodzi o wielkość i moc obliczeniową serwerowni, jak i ich wydajność energetyczną.
Według analiz McKinsey & Company wydatki na infrastrukturę centrów danych (wyłączając sam sprzęt IT) przekroczą 1,7 bln dolarów w 2030 roku. Najważniejszą przyczyną jest właśnie AI, a także technologie przetwarzania brzegowego (edge computing) oraz oczekiwania względem centrów obliczeniowych wysokiej wydajności (HPC)[1].
Rewolucja AI oznacza zatem istotne zmiany w fundamentalnych zasadach projektowania i eksploatacji centrów obliczeniowych. – Najistotniejsza sprawa związana z wprowadzeniem AI i przygotowaniem do tego centrów danych to całkowita zmiana optyki. Przy AI skokowo zwiększają się wymagania dotyczące mocy obliczeniowej, a co za tym idzie infrastruktury sieciowej, chłodzenia, zasilania, a nawet geograficznej lokalizacji centrum danych – mówi Adam Sawicki, Technical Product Manager Data Center and Cloud w T-Mobile Polska.
Elektrownia dla serwerów
Problem pierwszy i najpoważniejszy to zwiększone zapotrzebowanie na energię elektryczną do zasilania sprzętu IT oraz układów chłodzenia.
– Standardowa moc szafy to było 10 kW. Teraz zapotrzebowanie wzrosło do 40 kW na szafę. Natomiast przy AI mówimy o docelowej mocy 600 kW na jedną szafę rackową – tłumaczy Adam Sawicki. I dodaje, że projektowania centrum danych na potrzeby AI często zaczyna się od wyboru lokalizacji w pobliżu elektrowni, gwarantującej niezachwiane dostawy energii elektrycznej. Zaś w miejscach o dużej populacji – np. w dużych miastach – budowa „fabryk AI” staje pod znakiem zapytania.
Ta zmiana jest już widoczna – w niektórych regionach świata rozbudowa centrów danych na potrzeby AI została zahamowana właśnie ze względu na niedostateczne zaopatrzenie w energię elektryczną i wodę. W regionie Dublina w Irlandii nie można rozbudowywać centrów co najmniej do 2028 roku. Zużywają one ok. 20-25 proc. energii elektrycznej w kraju[2], podczas gdy średnia dla Unii Europejskiej wynosi zaledwie 3,1 proc. W Holandii same tylko centra danych odpowiadają za 7 proc. zużycia elektryczności. W obu krajach wskazuje się, że podnosi to ceny energii oraz utrudnia realizację celów klimatycznych. Wyzwania związane ze zużyciem energii dotykają wielkich metropolii: Londynu, Frankfurtu, Paryża i Amsterdamu[3].
Poza Europą problemy z zasilaniem dotyczą również Brazylii, Indii, Singapuru, Meksyku i RPA[4]. W Chile brakuje nawet wody do chłodzenia centrów.
Czy to widać również w Polsce? Krajowy sektor centrów danych rośnie w szybkim tempie, osiągając obecnie blisko 200 MW mocy operacyjnej i utrzymując od 2020 roku wskaźnik wzrostu na poziomie niemal 20 proc. Według prognoz PMR i Polskich Sieci Elektroenergetycznych, do 2030 roku zapotrzebowanie polskich centrów danych na moc może wzrosnąć do 500 MW, a do 2034 roku centra danych w Polsce będą wymagać mocy na poziomie 1063 MW[5].
Dlatego w Polsce coraz odważniej mówi się o uruchomieniu modułowych reaktorów jądrowych (SMR) do zasilania centrów danych. Na takie inwestycje pozwolić sobie będą mogli jednak tylko najwięksi – na świecie z takich rozwiązań korzystają m.in. Amazon i Microsoft.
Chłodzenie w kąpieli
Ogromne zapotrzebowanie na energię elektryczną dla serwerów rodzi także inny problem – konieczność efektywnego chłodzenia sprzętu. Już obecnie chłodzenie centrów danych może pochłaniać od 30 do nawet 40 proc. energii pobieranej z sieci[6]. Tu wyzwanie jest jeszcze większe – konwencjonalne sposoby chłodzenia są po prostu niewystarczające.
– W takich instalacjach chłodzenie powietrzem, czyli uruchomienie nawet najbardziej wydajnej klimatyzacji, nie wchodzi w grę. Konieczne jest chłodzenie cieczą – przekonuje Adam Sawicki. – Ale to wymaga przekonstruowania centrów danych. Myśli się też o tym, aby taką cieczą chłodzącą serwery ogrzewać budynki mieszkalne i w ten sposób choć w pewnym stopniu odzyskiwać energię.
Chłodzenie cieczą (nie musi to być woda) jest szczególnie pożądane w centrach danych o wysokiej gęstości urządzeń – dokładnie takich, jak te wykorzystywane do sztucznej inteligencji i HPC. Wymaga jednak dość istotnych modyfikacji konstrukcji budynku centrum danych.
Jeszcze dalej idzie koncepcja chłodzenia immersyjnego, wykorzystywana już w niektórych najbardziej zaawansowanych data center. Polega ono na zanurzeniu sprzętu IT w płynie dielektrycznym – cieczy nieprzewodzącej elektryczności. Takie płyny charakteryzują się zwykle wysoką pojemnością cieplną. W jednofazowym układzie chłodzenia płyn pozostaje w stanie ciekłym cały czas i jest przepompowywany do wymiennika ciepła. W układzie dwufazowym, z płynem o niskiej temperaturze wrzenia, ciecz gotuje się na powierzchni gorącego urządzania, a następnie skrapla się w wymienniku ciepła.
Sieć i cała reszta
Brzmi skomplikowanie? A to dopiero początek wyzwań. Nie mniej istotna dla ostatecznego efektu jest wydajność sieci oraz jej niezawodność. Tu ekspert T-Mobile wskazuje na rozwiązania takie, jak platforma SD-WAN oraz sieci oparte na technologii 5G.
Co istotne, konieczna będzie również zmiana kompetencji w zespole IT. Data center coraz częściej zarządzane są przez sztuczną inteligencję, która jest w stanie przewidzieć awarie, zanim one się wydarzą. W bardziej złożonych centrach AI będzie zarządzać zasilaniem, ochroną, systemem chłodzenia, a nawet budynkiem, w którym centrum się znajduje.
– Planując inwestycje tego typu trzeba myśleć, czy będzie się ona opłacała, czy może taniej i szybciej będzie wynająć infrastrukturę od specjalisty, który będzie nią zarządzał i udostępniał. Już dziś budowanie własnej serwerowni jest droższe niż jej wynajęcie – podkreśla Adam Sawicki. – Należy pamiętać, że sama inwestycja to jedno, ale przecież dochodzą później koszty utrzymania, serwisu, wymiany elementów. W przypadku data center przeznaczonych do AI outsourcing jest konieczny, bo tzw. AI factory zoptymalizowana do tego zadania, będzie tańsza i bardziej wydajna niż własne data center.
Najważniejsze wnioski
Modernizacja istniejącego centrum danych lub budowa nowego od podstaw przystosowanego do wymagań AI to ogromne wyzwanie technologiczne, inżynieryjne i finansowe. W przypadku tak wyspecjalizowanych zastosowań korzystniejsze będzie sięgnięcie po outsourcing i wykupienie usług u renomowanego dostawcy. Za takim rozwiązaniem przemawiają m.in. szybkość uruchomienia oraz przewidywalność kosztów.
Nie oznacza to natomiast, że w wykorzystywanych dziś serwerowniach można już zgasić światło. – Klasyczne data center nie znikną, będą dalej potrzebne dla tradycyjnych zastosowań – przekonuje Adam Sawicki z T-Mobile. – Tam, gdzie to możliwe, prowadzona będzie modernizacja w kierunku AI – jeżeli przewidziano opcję chłodzenia cieczą. W przypadku starszych serwerowni prawdopodobnie konieczna będzie przeprowadzka do nowej lokalizacji, które spełnia wymagania sztucznej inteligencji.
[1] https://www.mckinsey.com/industries/private-capital/our-insights/scaling-bigger-faster-cheaper-data-centers-with-smarter-designs
[2] https://www.irishtimes.com/opinion/editorials/2025/10/16/the-irish-times-view-on-data-centres-how-many-is-too-many/
[3] https://www.cbre.com/insights/reports/global-data-center-trends-2025
[4] https://www.nytimes.com/2025/10/20/technology/ai-data-center-backlash-mexico-ireland.html
[5] https://osge.com/osge-i-pldca-tworza-grupe-robocza/
[6] https://projects.research-and-innovation.ec.europa.eu/en/horizon-magazine/cooler-data-centres-help-take-heat-electric-bills

Data publikacji: 26.11.2025







