Jak operatorzy centrów danych powinni zarządzać ryzykiem zgodności z przepisami dotyczącymi sztucznej inteligencji w EOG?
Opublikowano 23rd wrzesień 2025
Rozporządzenie UE w sprawie sztucznej inteligencji (AI Act) przynosi nowe wyzwania dla operatorów centrów danych – a reżim regulacyjny będzie się dalej rozwijał

Termin „sztuczna inteligencja” (AI) przenika rozmowy o technologii, biznesie i życiu codziennym. Jej rewolucyjny wpływ na przetwarzanie danych jest niezaprzeczalny. Często nie dostrzega się jednak, że Rozporządzenie UE w sprawie sztucznej inteligencji (AI Act) nakłada obowiązki również na operatorów centrów danych.
AI Act a centra danych
Unijne Rozporządzenie w sprawie sztucznej inteligencji (AI Act), którego pierwsze przepisy weszły w życie 2 lutego 2025 r., może na pierwszy rzut oka sprawiać wrażenie, że pomija centra danych. Dokładniejsza analiza pokazuje jednak, że AI Act nakłada istotne obowiązki – zarówno dla centrów danych korzystających wewnętrznie z rozwiązań AI, jak i dla dostawców oraz użytkowników systemów AI hostowanych w zewnętrznych centrach danych.
Choć rozporządzenie nie ma bezpośredniego zastosowania do centrów danych zlokalizowanych w Zjednoczonym Królestwie i w innych państwach poza EOG, operatorzy tych centrów powinni znać jego przepisy. Jeżeli hostują systemy AI używane w EOG, ich klienci z EOG będą oczekiwali, że centra danych są prowadzone w sposób zgodny z wymaganiami AI Act, a umowy to odzwierciedlają.
Operatorzy centrów danych z innych jurysdykcji powinni też monitorować nadchodzące ustawodawstwo dotyczące AI w swoich krajach, w razie potencjalnego wpływu na ich działalność. Na przykład rząd Zjednoczonego Królestwa proponuje wprowadzenie w przyszłym roku przepisów dotyczących AI, najpewniej koncentrujących się na bezpieczeństwie i ochronie AI, co może mieć implikacje dla centrów danych w UK i poza nim.
Systemy AI wysokiego ryzyka w centrach danych
AI Act klasyfikuje systemy AI w czterech kategoriach: systemy zakazane, systemy wysokiego ryzyka, systemy ograniczonego ryzyka oraz systemy minimalnego ryzyka.. Systemy zakazane obejmują m.in. techniki podprogowe, ocenę społeczną (social scoring), przewidywanie ryzyka popełnienia przestępstwa oraz wnioskowanie o emocjach. Zakazy te mają niewielki bezpośredni wpływ na centra danych.
Systemy AI wysokiego ryzyka mogą potencjalnie mieć dużo większe znaczenie dla operatorów centrów danych. Jedna z kategorii relewantnych dla centrów danych obejmuje systemy AI używane jako komponenty bezpieczeństwa w zarządzaniu i eksploatacji krytycznych infrastruktur cyfrowych (art. 6 ust. 2 AI Act).
Nieprecyzyjne, ogólne brzmienie przepisów unijnych może obejmować wszystkie systemy AI związane z bezpieczeństwem centrów danych, zwłaszcza największych. Rozporządzenie nie definiuje „krytycznej infrastruktury cyfrowej”; natomiast art. 3 pkt 62 definiuje „infrastrukturę krytyczną”, odwołując się do Dyrektywy (UE) 2022/2557 w sprawie odporności podmiotów krytycznych (CER).
Motyw 55 rozporządzenia wnosi pewną klarowność:
- „Systemy AI sklasyfikowane jako wysokiego ryzyka do zarządzania i eksploatacji infrastruktury krytycznej obejmują te używane jako komponenty bezpieczeństwa. Ich awaria lub wadliwe działanie może prowadzić do ryzyk dla integralności fizycznej infrastruktury krytycznej, zdrowia oraz bezpieczeństwa osób i mienia. Komponenty służące wyłącznie celom cyberbezpieczeństwa nie kwalifikują się jako komponenty bezpieczeństwa. Przykłady obejmują systemy monitorowania ciśnienia wody lub systemy alarmów pożarowych w ośrodkach przetwarzania w chmurze.”
Z tego wynikają dwa wnioski:
- Centra danych są traktowane jako krytyczna infrastruktura cyfrowa i podlegają regulacjom dotyczącym systemów AI wysokiego ryzyka.
- Systemy AI wysokiego ryzyka w centrach danych dotyczą bezpieczeństwa fizycznego, a nie cyberbezpieczeństwa ani AI używanej w usługach chmurowych czy przetwarzaniu danych.
Rozwijając motyw 55, centra danych muszą kwalifikować narzędzia AI monitorujące lub kontrolujące ciśnienie wody oraz systemy alarmów pożarowych jako systemy AI wysokiego ryzyka; innymi przykładami mogą być systemy monitorowania usterek elektrycznych oraz systemy kontroli temperatury i dostępu. Ta kategoria nie obejmuje systemów AI do kontroli sieci, budowania maszyn wirtualnych, optymalizacji środowisk IT, monitorowania zużycia energii ani wykrywania cyberataków.
Obowiązki operatorów
Chociaż część systemów monitorowania i sterowania opiera się na tradycyjnym oprogramowaniu, prawdopodobne jest, że coraz więcej centrów danych będzie używać rozwiązań zawierających elementy AI. Systemy AI wysokiego ryzyka generują rozległe obowiązki dla działalności centrum danych. Dostawcy tych systemów (często same centra danych) muszą:
- ustanowić, udokumentować i prowadzić system zarządzania ryzykiem.
- spełniać kryteria jakości dotyczące zbiorów danych używanych w cyklu życia AI (zarządzanie danymi).
- tworzyć i aktualizować dokumentację techniczną.
- automatycznie rejestrować zdarzenia w cyklu życia systemu AI.
- zapewniać przejrzystość i odpowiednie informacje dla użytkowników (w tym instrukcje obsługi).
- zapewniać odpowiedni nadzór człowieka.
- zapewniać dokładność, solidność i cyberbezpieczeństwo.
Muszą również prowadzić system zarządzania jakością oraz spełniać obowiązki rejestracyjne i dotyczące deklaracji zgodności.
Operatorzy centrów danych korzystający z tych systemów AI wysokiego ryzyka, w tym centra nabywające je od zewnętrznych dostawców, muszą:
- podejmować środki techniczne i organizacyjne, aby systemy AI były używane zgodnie z instrukcjami obsługi.
- zapewniać odpowiedni nadzór człowieka.
- zapewniać jakość w zakresie zarządzania danymi (w zakresie zależnym od operatora).
- monitorować działanie systemu AI.
- przechowywać automatycznie generowane dzienniki zdarzeń.
- odpowiednio informować pracowników centrum danych o wykorzystaniu systemów AI wysokiego ryzyka.
Systemy AI niskiego ryzyka
Katalog systemów AI wysokiego ryzyka oraz praktyk zakazanych jest dość wąski, a większość systemów AI w centrach danych mieści się w niższej kategorii ryzyka. Obejmuje ona systemy AI obsługujące, kontrolujące, monitorujące wydajność lub zużycie zasobów, wspierające oraz zapewniające bezpieczeństwo.
AI Act zachęca do stosowania norm dla systemów niższego ryzyka zbliżonych do tych przewidzianych dla systemów wysokiego ryzyka, zwłaszcza gdy system AI znacząco wpływa na stabilność organizacyjną lub procesy kluczowe. Zalecane jest podejście zdroworozsądkowe oparte na ocenie ryzyka, z okresowym monitorowaniem działania systemu oraz potencjalnych zmian w kwalifikacji ryzyka według AI Act.
Rola centrów danych w zapewnianiu zgodności
Centra danych odgrywają kluczową rolę w zapewnianiu zgodności z AI Act, nie tylko w odniesieniu do własnych systemów AI wysokiego ryzyka, lecz także użytkowników centrów. Choć żaden z obowiązków dostawców i użytkowników systemów AI nie jest specyficzny dla centrów danych, wiele z nich pośrednio wpływa na relacje z centrami danych.
Przykładowo, awarie systemów AI wysokiego ryzyka mogą wymagać natychmiastowej reakcji, takie jak zatrzymanie systemu AI, wdrożenie rozwiązań zastępczych (obejść) czy uruchomienie kopii zapasowych. Ciągłość działania, redundancja i zarządzanie kopiami zapasowymi mają tu zasadnicze znaczenie.
Właściwości centrów danych, takie jak bezpieczeństwo fizyczne, cyberbezpieczeństwo oraz dostępność mocy obliczeniowej, mogą wpływać na odporność systemów AI na zagrożenia zewnętrzne, w tym cyberataki czy „zatrucie danych”.
Rosnące znaczenie centrów danych dla systemów AI wysokiego ryzyka
Ocena, czy relacje z centrum danych powinny być uwzględniane w analizie ryzyka, jest kluczowa. Działalność centrów danych ma znaczenie dla rejestrowania incydentów dotyczących systemów AI, a także zapewniania przejrzystości i rozliczalności; dostęp do narzędzi centrum danych może zwiększać skuteczność nadzoru człowieka nad systemami AI.
Wybór bezpiecznego centrum danych i odpowiednie ułożenie relacji są istotne dla zapewnienia dokładności, solidności i cyberbezpieczeństwa systemów AI — kluczowych wymogów dla systemów wysokiego ryzyka. AI Act wymaga planów redundancji i kopii zapasowych: centra danych są w tym integralne, podobnie jak we wdrażaniu środków zapobiegających atakom na zbiory danych oraz naruszeniom poufności danych.
Właściwe ustrukturyzowanie usług w zasobach centrum danych zapewnia odporne działanie systemów AI wysokiego ryzyka. Awarie powodujące szkodę dla osób mogą naruszać AI Act, co wymaga odpowiednich uzgodnień umownych, aby takim sytuacjom zapobiegać.
Na koniec, AI Act zaskakująco niewiele mówi o efektywności energetycznej i zrównoważonym rozwoju, poza obowiązkami organów regulacyjnych AI w zakresie wspierania tworzenia dobrowolnych kodeksów postępowania dotyczących wpływu systemów AI na zrównoważony rozwój środowiskowy oraz energooszczędnych technik dla efektywnego projektowania, trenowania i używania AI. Są to jednak zagadnienia o dużym znaczeniu dla wielu operatorów i użytkowników centrów danych – z powodów etycznych i praktycznych.
Komentarz Osborne Clarke
Operatorzy centrów danych powinni wdrożyć środki zgodności dla wszystkich swoich systemów AI związanych z bezpieczeństwem fizycznym oraz przygotować się na potrzeby klientów wynikające z AI Act, w tym przejrzeć umowy z klientami i dostawcami tak, aby odzwierciedlały te wymagania.
Inwestycje w centra danych powinny obejmować działania zapewniające wysoki poziom zgodności z AI Act. Choć obecne obowiązki nie są rozległe, należy spodziewać się zmian w przyszłości. Komisja Europejska może rozszerzyć katalog systemów AI wysokiego ryzyka, a rosnąca rola centrów danych będzie istotnym czynnikiem tej analizy.