Digitalizacja

Projekt dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję – ułatwienia dla poszkodowanych i obowiązki ujawniania dokumentacji

Published on 7th Oct 2022

28 września 2022 Komisja Europejska opublikowała projekt dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję (dokładnie: "Dyrektywa w sprawę dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji"). Nowe przepisy mają zapewnić, by ofiary produktów lub usług związanych ze sztuczną inteligencją mogły korzystać z takich samych standardów ochrony jakie obowiązywałyby w "normalnych" okolicznościach, czyli tam gdzie nie mamy do czynienia ze sztuczną inteligencją. 

Przepisy dyrektywy mają – wspierając przejście na gospodarkę cyfrową – ukierunkować dostosowanie przepisów krajowych do szczególnych cech sztucznej inteligencji. Jak wskazuje uzasadnienie, z przeprowadzonych badań wynika, że kwestia odpowiedzialności za sztuczną inteligencję stanowi jedną z trzech najważniejszych barier na drodze do korzystania z niej przez europejskie przedsiębiorstwa. Proponowane przepisy mają przyczynić się do wzrostu zaufania konsumentów do sztucznej inteligencji, a w efekcie do jej rozpowszechnienia.
 

Cel dyrektywy o odpowiedzialności za sztuczną inteligencję

W ocenie Komisji Europejskiej, krajowe przepisy dotyczące odpowiedzialności opartej na zasadzie winy nie są dostosowane do rozpatrywania roszczeń za szkody spowodowane przez produkty i usługi oparte na sztucznej inteligencji, gdyż zgodnie z tymi zasadami to poszkodowany musi udowodnić działanie lub zaniechanie, które spowodowało szkodę, co przy cechach sztucznej inteligencji (jej złożoności i autonomii, a także efekcie czarnej skrzynki, który oznacza mniej więcej tyle, że nie wiemy jak sztuczna inteligencja doszła do określonych wniosków), może nadmiernie utrudnić lub nawet uniemożliwić sprostanie ciężarowi dowodu. 

Zdaniem KE taki stan rzeczy może po pierwsze, powstrzymywać poszkodowanych przed wytaczaniem roszczeń, a po drugie, przyczynić się do niepewności prawa spowodowanej przez to, że sądy krajowe będą próbowały stosować dotychczasowe krajowe przepisy "doraźnie"  dostosowując je do systemów sztucznej inteligencji, by osiągnąć sprawiedliwe rezultaty, co negatywnie wpłynie na chęć przedsiębiorców do jej rozwijania. Zdaniem Komisji niebagatelne znaczenie miałoby również zróżnicowanie w porządkach krajowych, co w przypadku oferowania przez dostawców produktów lub usług opartych na sztucznej inteligencji na rynku unijnym oznaczałoby konieczność potencjalnego zmierzenia się z wieloma odmiennymi regulacjami. 

Co dokładnie ma regulować dyrektywa

Dyrektywa ma zastosowanie do pozaumownych cywilnoprawnych roszczeń z tytułu szkód spowodowanych przez system sztucznej inteligencji w przypadku gdy dochodzi się ich w ramach systemów odpowiedzialności opartych na zasadzie winy. Dyrektywa ma mieć zastosowanie wyłącznie do roszczeń za szkody powstałe od dnia jej transpozycji. Nowe przepisy ułatwią dochodzenie roszczeń np. osobie poszkodowanej w procesie rekrutacji prowadzonym z wykorzystaniem systemu sztucznej inteligencji. 

Po pierwsze, przepisy dyrektywy zakładają, że w przypadku stwierdzenia winy, gdy związek przyczynowy wydaje się być prawdopodobny, istnieje domniemanie związku przyczynowego, które pozwoli uniknąć trudności w wykazaniu że pomiędzy winą a szkodą istnieje odpowiedni związek przyczynowy, co w przypadku skomplikowanych systemów SI mogłoby być bardzo utrudnione. Po drugie, ułatwiony ma być dostęp do dowodów od przedsiębiorstw i dostawców systemów sztucznej inteligencji wysokiego ryzyka. 

Co ciekawe, dyrektywa zakłada że roszczenia odszkodowawcze mogą być wnoszone nie tylko przez osoby poszkodowane lecz również przez osoby, które objęły prawa osoby poszkodowanej lub wstąpiły w nie na zasadzie subrogacji (przejęcia przez osobę trzecią praw do odzyskania długu lub dochodzenia odszkodowania), a także przez osobę występującą w imieniu jednej lub kilku osób poszkodowanych.

Domniemanie istnienia związku przyczynowego

Zasadniczym ułatwieniem w dochodzeniu roszczeń za szkody spowodowane przez sztuczną inteligencję ma być domniemanie istnienia związku przyczynowego pomiędzy winą pozwanego, a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania wyniku. Takie domniemanie ma być przyjęte pod warunkiem że: 

  1. powód wykazał winę pozwanego (lub wina została domniemana w przypadku nieprzestrzegania obowiązku dochowania należytej staranności o czym mowa w punkcie poniżej – Ujawnianie dowodów),
  2. w oparciu o okoliczności sprawy istnieje uzasadnione prawdopodobieństwo, że wina wpłynęła na wynik uzyskany przez system inteligencji lub nieuzyskanie wyniku; oraz 
  3. powód wykazał, że szkoda została spowodowana wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku.

W przypadku roszczenia przeciwko dostawcy systemu sztucznej inteligencji wysokiego ryzyka podlegającemu wymogom określonym w rozdziale 2 i 3 tytułu III Aktu w sprawie AI1,  lub osobie podlegającej obowiązkom dostawcy (zgodnie z art. 24 lub art. 28 ust. 1 Aktu w sprawie AI – producent produktu, dystrybutor, importer, użytkownik) warunek dotyczący wykazania winy pozwanego jest spełniony wyłącznie, gdy powód wykazał niespełnienie któregokolwiek z następujących wymogów przez dostawcę (lub w stosownych przypadkach przez osobę podlegającą obowiązkom dostawcy), z uwzględnieniem działań podjętych w ramach systemu zarządzania ryzykiem oraz wyników tych działań: 

a) system sztucznej inteligencji wykorzystuje techniki obejmujące trenowanie modeli z wykorzystaniem danych, które nie zostały opracowane na podstawie zbiorów danych treningowych, walidacyjnych i testowych spełniających kryteria jakościowe (określone w art. 10 ust 2-4 Aktu w sprawie AI);
b) system sztucznej inteligencji nie został zaprojektowany i opracowany w sposób spełniający wymogi w zakresie przejrzystości określone w (art. 13 Aktu w sprawie AI);
c) system sztucznej inteligencji nie został zaprojektowany i opracowany w sposób umożliwiający osobom fizycznym jego skuteczne nadzorowanie w okresie wykorzystywania systemu SI zgodnie z art. 14 Aktu w sprawie AI;
d) system SI nie został zaprojektowany i opracowany w sposób umożliwiający osiągnięcie, z uwagi na jego przeznaczenie, odpowiedniego poziomu dokładności, solidności i cyberbezpieczeństwa zgodnie z art. 15 i 16 lit. a) Aktu w sprawie AI;
e) niezwłocznie nie podjęto niezbędnych działań naprawczych, w celu zapewnienia zgodności systemu sztucznej inteligencji z obowiązkami określonymi w tytule III rozdziału 2 Aktu o AI lub odpowiednio, w celu wycofania go z rynku lub wycofania go od użytkowników zgodnie z art. 16 lit. g) i art. 21 Aktu w sprawie AI).

Odmienne warunki wykazania winy określono w przypadku roszczenia przeciwko użytkownikowi systemu sztucznej inteligencji wysokiego ryzyka (przez użytkownika rozumie się podmiot, który korzysta z systemu sztucznej inteligencji pod swoją kontrolą, z wyjątkiem osobistej działalności pozazawodowej). Warunek wykazania winy będzie spełniony, jeśli powód wykazał, że użytkownik: 

a) nie wywiązał się z obowiązku użytkowania lub monitorowania systemu sztucznej inteligencji zgodnie z załączoną instrukcją użytkowania lub, w stosownych przypadkach, z obowiązku wstrzymania lub przerwania jego użytkowania zgodnie z art. 29 aktu w sprawie AI lub

b) wprowadził do systemu sztucznej inteligencji dane wejściowe, nad którymi sprawuje kontrolę i które nie są adekwatne w odniesieniu do przeznaczenia tego systemu w rozumieniu art. 29 ust. 3 aktu.

Pozwany może obalić powyższe domniemanie w przypadku systemu wysokiego ryzyka wykazując, że powód może uzyskać względnie łatwy dostęp do dowodów i wiedzy eksperckiej aby udowodnić związek przyczynowy. W stosunku do systemów sztucznej inteligencji, które nie stanowią systemu wysokiego ryzyka, domniemanie związku przyczynowego ma z kolei zastosowanie wyłącznie gdy sąd uzna, że udowodnienie takiego związku jest nadmiernie trudne. 

Domniemanie związku przyczynowego nie ma, co do zasady, zastosowania do "użytkowników nieprofesjonalnych" systemu sztucznej inteligencji, chyba że taki użytkownik istotnie ingerował w warunki jego działania lub gdy miał obowiązek i możliwość określenia warunków działania SI, ale tego nie uczynił. Oznacza to zatem, że nawet w przypadku nieprofesjonalnego korzystania z systemu SI, aby uchronić się przed domniemaniem, konieczne jest przestrzeganie instrukcji użytkowania lub innych mających zastosowanie obowiązków dochowania należytej staranności. 
Domniemanie związku przyczynowego w każdym przypadku jest oczywiście wzruszalne. 

Ujawnianie dowodów

Bardzo ważnym ułatwieniem procesowym ma być możliwość nakazania ujawnienia odpowiedniej dokumentacji przez dostawcę lub użytkownika systemu sztucznej inteligencji - wysokiego ryzyka będącego potencjalnym pozwanym. 
Zgodnie z artykułem 3 sąd może nakazać ujawnienie odpowiednich dowodów dotyczących konkretnych systemów sztucznej inteligencji wysokiego ryzyka, co do których istnieje podejrzenie, że spowodowały szkodę. Warunkiem wydania takiego nakazu jest:
a) przedstawienie przez potencjalnego powoda wystarczających faktów i dowodów dla uprawdopodobnienia roszczenia; oraz
b) wcześniejsze podjęcie przez powoda wszelkich proporcjonalnych prób uzyskania dowodów od pozwanego (oraz jego odmowa lub brak odpowiedzi). 

Jako że dowody, których ujawnienie może nakazać sąd, mogą stanowić tajemnicę przedsiębiorstwa, sądy mają być uprawnione do nakazania zastosowania szczególnych środków w celu ich zabezpieczenia, jak również ograniczać zakres ujawnianych informacji do dowodów proporcjonalnych i niezbędnych do uzasadnienia roszczenia (potencjalnego lub wniesionego). Osobie, której nakazano ujawnienie dowodów musi również przysługiwać możliwość reakcji na taki nakaz. 

Co ważne, niezastosowanie się do nakazu ujawnienia dowodów powoduje domniemanie, że pozwany nie zastosował się do obowiązku dochowania należytej staranności,(w szczególności w okolicznościach, o których mowa w art. 4 ust. 2 lub 3 Dyrektywy), które to okoliczności miały zostać wykazane za pomocą wnioskowanych dowodów, co powoduje domniemanie winy pozwanego. 

Ocena i wejście w życie

Po pięciu latach od transpozycji dyrektywy Komisja ma przeprowadzić przegląd dyrektywy pod kątem osiągnięcia jej celów oraz potrzeby wprowadzenia przepisów dotyczących odpowiedzialności na zasadzie ryzyka w odniesieniu do roszczeń wobec operatorów niektórych systemów sztucznej inteligencji oraz potrzebę wprowadzenia ochrony ubezpieczeniowej w tym zakresie. 

Termin na przyjęcie niezbędnych środków transpozycji zgodnie z projektem ma wynieść dwa lata od dnia wejścia w życie dyrektywy. 
 

1   Projekt - Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniające niektóre akty ustawodawcze Unii z dnia 21 kwietnia 2021 r. 

 

Share
Interested in hearing more from Osborne Clarke?

* This article is current as of the date of its publication and does not necessarily reflect the present state of the law or relevant regulation.

Connect with one of our experts

Interested in hearing more from Osborne Clarke?

Related articles

Services