Pytanie o to, w jaki sposób uregulować odpowiedzialność za sztuczną inteligencję budzi dyskusje i rozpala emocje zarówno prawników, jak i praktyków branży nowych technologii i data science. Jak niemal zawsze, tak i w tym przypadku aktualnie obowiązujące prawo pozostaje w tyle za zmianami społecznymi. W przestrzeni europejskiej nie można jednak zarzucić organom prawodawczym UE, że przesypiają moment przełomowych zmian technologicznych. Unia Europejska wydaje się być ostatnio tyglem legislacyjnym, jeśli chodzi o nowe inicjatywy regulacji w zakresie nowych technologii, na czele ze sztuczną inteligencją.

W dniu 28 września 2022 r. Komisja Europejska przedstawiła długo oczekiwany projekt Dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (tzw. dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję).

Projekty aktów prawnych w obszarze AI

Przypomnijmy, że w 2021 r. Unia Europejska opublikowała projekt jednolitego rozporządzenia w sprawie sztucznej inteligencji (tzw. Akt w sprawie sztucznej inteligencji), o którym pisaliśmy m.in. tutaj. Rozporządzenie będzie aktem obowiązującym bezpośrednio w każdym państwie członkowskim i wiążącym krajowe podmioty prawa, w tym przedsiębiorców i obywateli. Projekt rozporządzenia nie zawiera przy tym propozycji przepisów w zakresie odpowiedzialności cywilnej za sztuczną inteligencję. Jest to celowy zabieg projektodawcy; Akt o sztucznej inteligencji ma bowiem regulować inną materię, niż cywilistyczną. W szczególności ma nakładać obowiązki regulacyjne na dostawców systemów sztucznej inteligencji oraz ustanawiać podział systemów na trzy grupy, w zależności od poziomu ryzyka, jakie niesie używanie danego systemu sztucznej inteligencji dla społeczeństwa.

W odróżnieniu od rozporządzenia, dyrektywa jest aktem prawnym, który musi być wdrożony przez państwa członkowskie do krajowych systemów prawnych, przez ustanowienie lub zmianę odpowiednich przepisów lokalnych.

Klasyczna odpowiedzialność cywilna, a sztuczna inteligencja

Podstawową zasadą odpowiedzialności odszkodowawczej za czyn niedozwolony w polskim prawie jest zasada winy. Zgodnie z art. 415 k.c., kto z winy swej wyrządził drugiemu szkodę, obowiązany jest do jej naprawienia. Wina, na gruncie prawa cywilnego rozumiana jest jako niedochowanie należytej staranności wymaganej w danych okolicznościach. Odpowiedzialność za niektóre czyny niedozwolone jest jednak w drodze wyjątku ukształtowana na zasadzie ryzyka, co oznacza, że pozwanemu można przypisać odpowiedzialność, nawet jeśli nie ponosi winy.

W klasycznym procesie o odszkodowanie za szkodę spowodowaną czynem niedozwolonym opartym nie na zasadzie ryzyka, ale na zasadzie winy, powód musi udowodnić:

  • szkodę
  • zdarzenie, które ją spowodowało
  • niedochowanie należytej staranności przez pozwanego (czyli jego winę)
  • związek przyczynowy między zdarzeniem wyrządzającym szkodę, a niedochowaniem należytej staranności przez pozwanego.

Kto będzie legitymowany jako pozwany w takim procesie, jeśli szkoda jest rezultatem wyniku działania systemu AI? Rzecz jasna, nie będzie to sama sztuczna inteligencja. Na czym będzie polegać wina osoby odpowiedzialnej za sztuczną inteligencję? Jak wykazać związek przyczynowy między zachowaniem człowieka kontrolującego sztuczną inteligencję, a jej nieprawidłowym działaniem? Czy za szkodę spowodowaną np. błędną diagnozą medyczną postawioną przez sztuczną inteligencję odpowiedzialność poniesienie lekarz przekazujący pacjentowi informację, czy podmiot odpowiedzialny za system AI?

Odpowiedzialność za sztuczną inteligencję – trudności dowodowe

Na przynajmniej część powyższych pytań próbuje odpowiedzieć projekt dyrektywy w sprawie odpowiedzialności cywilnej za sztuczną inteligencję.

W uzasadnieniu projektu możemy przeczytać, że potrzeba przyjęcia przepisów o odpowiedzialności cywilnej na poziomie unijnym wynika z niedostosowania aktualnych systemów odpowiedzialności za szkodę opartej na zasadzie winy do specyfiki sztucznej inteligencji, oraz w szczególności z trudności, jakie może napotkać osoba poszkodowana w wykazaniu swojego roszczenia. W uzasadnieniu projektu dyrektywy wskazano w szczególności, że obowiązujące przepisy krajowe dotyczące odpowiedzialności, w szczególności opartej na zasadzie winy, nie są dopasowane do rozpatrywania roszczeń z tytułu odpowiedzialności za szkody spowodowane przez produkty i usługi oparte na sztucznej inteligencji. Poszkodowani muszą bowiem udowodnić bezprawne działanie lub zaniechanie osoby, która spowodowała szkodę. Cechy szczególne sztucznej inteligencji, w tym jej złożoność, autonomia i brak przejrzystości (tzw. efekt czarnej skrzynki), mogą sprawić, że zidentyfikowanie osoby ponoszącej odpowiedzialność i udowodnienie spełnienia wymogów uznania roszczenia odszkodowawczego może być dla poszkodowanych trudne lub nadmiernie kosztowne. Poszkodowani ubiegający się o odszkodowanie mogą w szczególności ponieść bardzo wysokie koszty wstępne i uczestniczyć w znacznie dłuższym postępowaniu sądowym niż miałoby miejsce w sprawach niezwiązanych ze sztuczną inteligencją. Może to zatem powstrzymać poszkodowanych przed ubieganiem się o odszkodowanie.

Cywilna odpowiedzialność za sztuczną inteligencję – zakres dyrektywy

Projekt przepisów o odpowiedzialności za działanie systemów sztucznej inteligencji dotyczy wyłącznie pozaumownej odpowiedzialności cywilnej. Innymi słowy, dyrektywa ma dotyczyć tylko roszczeń cywilnych o naprawienie szkody wyrządzonej przez czyn niedozwolony, tj. takiej, która nie wynikła z istniejącej wcześniej między stronami umowy.

Projekt dotyczy zagadnień procesowych związanych z dochodzeniem roszczeń odszkodowawczych i ma na celu ułatwienie stronie powodowej poszukiwania ochrony prawnej w przypadku szkody wyrządzonej przez sztuczną inteligencję.

Po pierwsze, planowana regulacja przewiduje ustanowienie w prawie krajowym środków procesowych dotyczących ujawniania dowodów umożliwiających powodowi sformułowanie roszczenia odszkodowawczego opartego na zasadzie winy, za szkodę wyrządzaną przez systemy sztucznej inteligencji wysokiego ryzyka.

Po drugie, dyrektywa proponuje zamiany w rozkładzie ciężaru dowodu w odniesieniu do pozaumownych cywilnoprawnych roszczeń odszkodowawczych z tytułu szkód spowodowanych przez systemy sztucznej inteligencji.

Systemy wysokiego ryzyka

Przypomnijmy, że kategorie systemów sztucznej inteligencji wysokiego ryzyka wymienione są w szczególności w załączniku do projektu wyżej wspomnianego Aktu ws sztucznej inteligencji. Po przyjęciu i wejściu w życie Aktu systemy wysokiego ryzyka mają być dozwolone, ale będą podlegać regulacji i kontroli. Siłą rzeczy, systemy AI wysokiego ryzyka to te, w odniesieniu do których ryzyko wyrządzenia szkody jest istotne. Są to systemy związane np. z bezpieczeństwem, wymiarem sprawiedliwości lub prawami osób fizycznych. Przykładowe grupy systemów wysokiego ryzyka to:

  • systemy sztucznej inteligencji przeznaczone do stosowania w celu zdalnej identyfikacji biometrycznej osób fizycznych „w czasie rzeczywistym” i „post factum”;
  • systemy sztucznej inteligencji przeznaczone do stosowania w celu podejmowania decyzji o dostępie do instytucji edukacyjnych i instytucji szkolenia zawodowego lub nadawania osobom przydziału do tych instytucji;
  • systemy sztucznej inteligencji przeznaczone do wykorzystania w celu rekrutacji lub wyboru osób , w szczególności w przypadku informowania o wakatach, selekcji lub filtrowania podań o pracę, oceny kandydatów w trakcie rozmów kwalifikacyjnych lub testów.

Nakazanie ujawnienia dowodów

Zgodnie z projektem dyrektywy o odpowiedzialności cywilnej za sztuczną inteligencję, państwa członkowskie będą musiały zapewnić w ustawodawstwie krajowym środek procesowy mający ułatwić potencjalnemu powodowi, jeszcze przed złożeniem powództwa, dochodzenie roszczenia odszkodowawczego. Ma on polegać na tym, że sąd na wniosek przyszłego powoda będzie mógł nakazać drugiej stronie ujawnienie dowodów dotyczących konkretnego systemu sztucznej inteligencji wysokiego ryzyka, co do którego istnieje podejrzenie, że spowodował on szkodę. Warunkiem skorzystania przez przyszłego powoda z tego środka przed sądem będzie, aby wcześniej poszkodowany zwrócił się bezpośrednio do dostawcy systemu sztucznej inteligencji (lub innej osoby odpowiedzialnej za system) o ujawnienie tych dowodów i uzyskał odmowę ich dostarczenia.

We wniosku do sądu o ujawnienie dowodów potencjalny powód będzie musiał uprawdopodobnić swoje roszczenie odszkodowawcze.

Projekt dyrektywy przewiduje że osobie zobowiązanej do ujawnienia lub zabezpieczenia dowodów będą musiały przysługiwać odpowiednie proceduralne środki ochrony prawnej w reakcji na taki nakaz.

Zakres ujawnianych informacji będzie musiał ograniczać się dowodów, które są proporcjonalne i niezbędne, aby uzasadnić potencjalne lub wniesione roszczenie odszkodowawcze.

Nie dostarczysz dowodów – i tak możesz przegrać

Przeciwnik, który nie zastosuje się do nakazu ujawnienia dowodów może ryzykować nawet przegranie przyszłego procesu. Sąd może bowiem w takiej sytuacji przyjąć domniemanie niedochowania przez pozowanego należytej staranności w spornych okolicznościach będących przedmiotem procesu, a związanych z dowodami, które miały być ujawnione.

Ciężar dowodu na pozwanym

Kolejnym środkiem projektowanym w dyrektywie w celu ułatwienia dochodzenia roszczeń stronie poszkodowanej przez sztuczną inteligencję jest wzruszalne domniemanie, że zdarzenie powodujące szkodę, związane z działaniem sztucznej inteligencji, wynikło z winy pozwanego. Zgodnie z projektem, sąd rozpoznający sprawę będzie mógł przyjąć domniemanie istnienia związku przyczynowego między winą pozwanego rozumianą jako niedochowanie należytej staranności), a określonym wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania takiego wyniku, pod warunkiem spełnienia łącznie kilku warunków. Czyli, możliwe będzie uznanie bez dowodzenia, że za nieprawidłowe działanie systemu sztucznej inteligencji odpowiedzialna jest określona osoba pozwana, jeśli tej osobie przypisze się niedochowanie należytej staranności. Jednocześnie, jeśli pozwany wcześniej nie dostarczył dowodów wnioskowanych przez powoda, w danych okolicznościach sąd będzie mógł przyjąć jego winę.

Domniemanie istnienia określonej okoliczności mającej znaczenie dla odpowiedzialności oznacza, w konkretnym zakresie, zdjęcie ciężaru dowodu ze strony powodowej i przerzucenie go na stronę pozwaną w zakresie konieczności udowodnienia braku odpowiedzialności .

Przesłanki stosowania domniemania

Warunki, jakie muszą być spełnione, aby sąd mógł przyjąć ww. domniemanie związku przyczynowego są następujące:

a) w toku procesu pozwanemu przypisano winę polegającą nieprzestrzeganiu obowiązku dochowania należytej staranności określonego w prawie materialnym,

b) w oparciu o okoliczności sprawy można uznać, że istnieje uzasadnione prawdopodobieństwo, że wina wpłynęła na wynik uzyskany przez system sztucznej inteligencji lub na fakt nieuzyskania przez taki system wyniku;

c) powód wykazał, że szkoda została spowodowana wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku.

W przypadku roszczenia dotyczącego systemu sztucznej inteligencji wysokiego ryzyka domniemania nie stosuje się jeżeli pozwany wykaże, że powód może uzyskać względnie łatwy dostęp do dowodów i wiedzy eksperckiej wystarczających, aby samemu udowodnić wspomniany związek przyczynowy.

W przypadku systemu sztucznej inteligencji, który nie jest systemem wysokiego ryzyka, domniemanie ma zastosowanie wyłącznie wtedy, gdy sąd uzna, że udowodnienie przez powoda związku przyczynowego jest nadmiernie trudne.

Masz robota i nie zawahasz się go użyć? Zastanów się!

Być może doczekamy kiedyś czasów, w których sztuczna inteligencja doczeka się przyznania jej odrębnej osobowości prawnej. Jakkolwiek może to brzmieć niczym science fiction, taka perspektywa nie jest już zupełnie absurdalna. We wpisie, w którym rozważaliśmy, czy AI może być twórcą, pisaliśmy o tym, że sąd australijski dopuścił przyznanie systemowi sztucznej inteligencji przymiotu twórcy wynalazku na gruncie australijskiego prawa patentowego. W europejskim i amerykańskim systemie prawnym jest to na razie niemożliwe; organy stosujące prawo konsekwentnie bronią oczywistej, zdawałoby się, zasady, wg której twórcą własności intelektualnej może być tylko człowiek. Projekt dyrektywy w sprawie odpowiedzialności cywilnej za sztuczną inteligencję, jak również Aktu w sprawie sztucznej inteligencji potwierdza, że w Europie póki co to człowiek będzie również ponosił cywilną i publicznoprawną odpowiedzialność za sztuczną inteligencję. Jest to spójne z europejską koncepcją godnej zaufania sztucznej inteligencji, na której oparte są projektowane regulacje. Fakt, że dokładny sposób podejmowania decyzji przez AI jest dla nas na razie tajemnicą (efekt czarnej skrzynki) nie może być okolicznością wyłączającą odpowiedzialność podmiotów chcących odnosić korzyści ekonomiczne z rozwoju nowych technologii.

Photo by Uriel Soberanes on Unsplash
Udostępnij