Sztuczna inteligencja (dalej: AI) nie przestaje być tematem różnorodnych debat na całym świecie, nie tylko w aspekcie jej potencjału, ale także wyzwań związanych z jej wpływem na nasze życie. Poprzednio omawialiśmy kwestie związane z ewentualną ochroną AI w kontekście prawa autorskiego TUTAJ, prawa karnego TUTAJ oraz prawa patentowego TUTAJ. W tym wpisie zajmiemy się tematem, który wciąż budzi kontrowersje, jakim jest odpowiedzialność za szkody wyrządzone przez systemy AI, czyli odpowiedzią na pytanie: kto to ponosi odpowiedzialność, gdy szkoda jest efektem działania bądź zaniechania systemu sztucznej inteligencji? To pytanie staje się coraz bardziej aktualne, zwłaszcza w kontekście ostatnich zmian prawnych. Niespełna od miesiąca, od 2 lutego 2025 r. obowiązuje zakaz używania niektórych systemów AI określonych w art. 5 unijnego Rozporządzenia UE 2024/1689 o sztucznej inteligencji (AI Act) – (tzw. zakazane praktyki) W sierpniu 2025 r. w życie wejdą przepisy określające zasady nadzoru nad sztuczną inteligencją i kar za naruszenia AI Akt a także odnoszące się do systemów AI wysokiego ryzyka oraz związanych z nimi obowiązków (z wyjątkami do sierpnia 2026r. dotyczącymi niektórych systemów wysokiego ryzyka będących elementem produktów podlegających osobnym normom). Także w sierpni br ma zostać przyjęta ustawa o sztucznej inteligencji, która kompleksowo ureguluje kwestie związane z odpowiedzialnością i nadzorem nad AI.
Aby mówić odpowiedzialności trzeba wskazać podmiot odpowiedzialny. Innymi słowy wskazać ponoszącego odpowiedzialność, jej zakres i zasady odpowiedzialności.
Spis treści
Możliwość przyznania AI podmiotowości
Czy AI może być podmiotem praw i obowiązków we współczesnym porządku prawnym? To pytanie, jeszcze niedawno należało do świata abstrakcji. Dziś staje się przedmiotem debat w filozofii, prawie i etyce. Rozwój zaawansowanych systemów AI, zdolnych do autonomicznego podejmowania decyzji, generowania treści i interakcji z ludźmi w sposób przypominający myślenie, prowokuje pytania o granice podmiotowości. Zaczynając od filozoficznej dygresji o ewentualnej możliwości przyznania AI podmiotowości i dalej idącymi za tym konsekwencjami, postaramy się przybliżyć tę problematykę.
Obecnie AI nie posiada zdolności do czynności prawnych, lecz jak wcześniej wspomniano, debata na ten temat jest stale otwarta. Do głównych argumentów przeciwko przyznaniu AI zdolności do czynności prawnych należy brak „żywego substratu”, ograniczone rozumienie w ludzkim sensie tego słowa oraz problemy z przypisaniem odpowiedzialności, innymi słowy brak osoby.[1] Z drugiej strony pojawiają się jednak głosy skłaniające się ku przyznaniu przynajmniej ograniczonej zdolności do czynności prawnych w określonych sytuacjach np. handlu internetowym. Profesor Jankowska przywołuje ciekawy pogląd Chopra i White’a, którzy uważają, że przyznanie agentom podmiotowości powinno być uzależnione od wykazania kilku przesłanek. Ich zdaniem „agent powinien:
- posiadać „zdolność intelektualną” i działać racjonalnie sui juris;
- przedstawiać zdolność rozumienia i przestrzegania obowiązków prawnych;
- podlegać odpowiedzialności prawnej, której dolegliwość będzie go skłaniać do należytego wykonywania swoich obowiązków;
- zdolność kontraktowania (w tym tworzenia treści umów);
- zdolność kontrolowania środków i zdolność posiadania własności.” [2]
Argumenty za przyznaniem AI podmiotowości skupiają się głównie na potencjalnych uprawnieniniach, jakie takie rozwiązanie mogłoby przynieść w przyszłości. Nadanie AI podmiotowości prawnej mogłoby uprościć proces zawierania umów w środowisku internetowym, eliminując konieczność bezpośredniego zaangażowania człowieka w rutynowe transakcje. Dodatkową zaletą byłoby ułatwienie rozwiązywania kwestii prawnych i technicznych. Dobrym przykładem jest sytuacja opisana w artykule profesor Janowskiej, w której producent mógłby ograniczyć swoją odpowiedzialność za ewentualne wady produktu, przyznając agentowi własny majątek, z którego pokrywane byłyby ewentualne szkody.[3] Nie można jednak zapomnieć o ryzyku nadużyć i manipulacji, zwłaszcza kiedy AI zarządzałaby dużym majątkiem.
W kwestii stricte związanej z ochroną własności intelektualnej, nie sposób przyznać AI częściowej zdolności prawnej w tak specyficznym zakresie, nie rozważając wcześniej zasadności zmiany ogólnego podejścia do konstrukcji stosunku prawnego. Obowiązujące w Polsce prawo cywilne nie przewiduje istnienia praw podmiotowych niezwiązanych z konkretnym uprawnionym. Jest to standard nie tylko na poziomie europejskim, ale i globalnym w sferze stosunków prywatnoprawnych. Przyjęcie odmiennej koncepcji, zakładającej możliwość oddzielenia prawa od jego podmiotu, prowadziłoby do wewnętrznej niespójności zarówno w samej konstrukcji prawa podmiotowego, jak i całego stosunku prawnego, którego jest ono częścią.[4] Takie podejście znajduje także odzwierciedlenie w obecnym orzecznictwie, gdzie poza kilkoma wyjątkami, żaden z sądów nie przyznał systemowi AI statusu twórcy, o czym dokładniej pisaliśmy TUTAJ.
AI jako narzędzie w rękach człowieka
AI może być postrzegana nie tylko jako zaawansowane systemy algorytmów, ale także jako przedmiot stosunków prawnych, w którym jej rola jest podporządkowana ludzkim celom i intencjom. W takim ujęciu, systemy oparte na AI, nie posiadają własnej podmiotowości prawnej, lecz funkcjonują jako instrumenty, które wspomagają człowieka w wykonywaniu określonych zadań. Ich działania są zawsze wynikiem ludzkiej decyzji, a sama AI nie posiada autonomii, która pozwalałaby jej działać niezależnie od swoich twórców i użytkowników.[5] O tym, czym jest AI szczegółowo pisaliśmy TUTAJ, lecz w tym miejscu należy przypomnieć, że systemy AI cechują się one znaczną autonomią działania oraz zdolnością do samodzielnego uczenia się. Chociaż technicznie rzecz biorąc, nie wszystkie systemy muszą być wyposażone w algorytmy, które wykluczają pewne działania jako „zawinione”, to jednak w kontekście etycznym AI powinna zawierać mechanizmy pozwalające na ocenę i wybór pomiędzy różnymi dobrami, zwłaszcza w sytuacjach, gdzie niemożliwe jest uniknięcie naruszenia któregokolwiek z nich. Warto podkreślić, że przeciwieństwie do tradycyjnych narzędzi, które działają zgodnie z regułami ustalonymi przez człowieka, AI w określonym zakresie wykazuje autonomię, co stawia przed nami wyzwania związane z jej kontrolowaniem i odpowiedzialnością za podejmowane przez nią decyzje.[6]
AI znajduje zastosowanie w wielu dziedzinach życia codziennego oraz w różnorodnych branżach, w tym w medycynie, finansach, przemyśle czy edukacji. W każdej z tych branż błąd popełniony przez AI może być katastroficzny dla człowieka. O wykorzystaniu AI w kryminalistyce pisaliśmy TUTAJ. Przykładowo w medycynie AI wspomaga diagnozowanie chorób, analizowanie wyników badań, a także w opracowywaniu indywidualnych planów leczenia. W sektorze finansowym wykorzystywana jest do analizy ryzyka, prognozowania trendów rynkowych czy automatyzacji procesów obsługi klienta. Każdy z tych sposobów zastosowania AI może więc ewentualnie rodzić powstanie odpowiedzialności cywilnej.
Może to mieć miejsce gdy maszyny lub urządzenia, wyposażone w oprogramowanie, analizują dane medyczne, takie jak informacje zebrane podczas wywiadu lekarskiego, wyniki badań laboratoryjnych czy dane z urządzeń monitorujących parametry życiowe pacjenta. Jednocześnie, te systemy „uczą się” na podstawie zmienności tych danych, uwzględniając np. wpływ przyjmowanych leków, i proponują konkretne działania lub rekomendacje. Istnieje również możliwość, że system AI „konsultuje” wyniki badań przesyłanych w ramach telemedycyny. W takim przypadku pojawia się pytanie, kto ponosi odpowiedzialność w przypadku błędnej interpretacji wyników – czy to użytkownik urządzenia z systemem AI, czy lekarz, który opierał się na wynikach i zlecił leczenie, takie jak podanie określonych leków. Odpowiedź na to pytanie będzie zależna od przyjętego podejścia do odpowiedzialności, co może mieć wpływ na ustalenie zasadności i podstawy odpowiedzialności za ewentualne szkody, takie jak niepotrzebne podanie leków, które doprowadziłyby do działań niepożądanych.[7]
Zasady odpowiedzialności
Skupimy się tylko na omówieniu odpowiedzialności deliktowej w kontekście szkód wyrządzonych przez AI. Odpowiedzialność deliktowa odnosi się bowiem do sytuacji, w której osoba ponosi odpowiedzialność za szkodę wyrządzoną innym wskutek swojego czynu niedozwolonego. Natomiast odpowiedzialność kontraktowa dotyczy sytuacji, w której strona nie wykonuje lub niewłaściwie wykonuje zobowiązania wynikające z zawartej umowy, co prowadzi do szkody.
Przy ponoszeniu odpowiedzialności z czynu niedozwolonego konieczne jest „przypisanie odpowiedzialności”, przez co rozumiemy decyzję prawodawcy, która określa, który podmiot ponosi obowiązek naprawienia szkody powstałej w określonych w normie okolicznościach. Oznacza to, że wybiera się adresata normy, który będzie zobowiązany do świadczenia odszkodowawczego, a także wskazuje się motywy leżące u podstaw tego wyboru. Motywy te ujawniają się w opisie okoliczności (wykraczających poza samą szkodę), których zaistnienie prowadzi do powstania obowiązku naprawienia szkody.[8] Do „przypisania odpowiedzialności” nie jest konieczna podmiotowość prawna, ale jej brak powoduje wiele problemów, tak jak właśnie w przypadku systemów AI. W tym miejscu przybliżymy więc niektóre z zasad odpowiedzialności deliktowej obecnych w polskim kodeksie cywilnym, które mogą być implikowane w przypadku szkód wyrządzonych przez AI.
Odpowiedzialność na zasadzie winy
Tak jak wcześniej wspomnieliśmy, nie wydaje się, aby obecnie możliwe było uznanie systemu AI za odrębny podmiot posiadający „osobowość” prawną. Ponadto, tego rodzaju podejście stałoby w sprzeczności z zasadami odpowiedzialności cywilnej, zwłaszcza na podstawie winy. Zgodnie z art. 415 kodeksu cywilnego, aby odpowiedzialność miała miejsce, konieczne jest nie tylko działanie niezgodne z prawem, ale również udowodnienie subiektywnego elementu winy – takiej nieprawidłowości w zachowaniu, która pozwala przypisać komuś zarzut odpowiedzialności. Tymczasem, przynajmniej na obecnym etapie rozwoju, trudno wyobrazić sobie jakiekolwiek „psychologiczne nastawienie” systemu AI do działania, co uniemożliwia ocenę takich elementów jak umyślność czy nieumyślność jego postępowania.
Dlatego trzeba skupić się na odpowiedzialności za szkody AI w ujęciu AI jako narzędzi w rękach ludzi.[9]
Przepis art. 415 kodeksu cywilnego – kto z winy swej wyrządził drugiemu szkodę, obowiązany jest do jej naprawienia – zawiera kluczową zasadę prawa deliktowego, ponieważ odpowiedzialność za szkody powstałe w sytuacjach, które nie mieszczą się w ramach norm innych przepisów przewidujących odpowiedzialność opartą na zasadzie innej niż wina, może wystąpić jedynie wtedy, gdy te szkody można powiązać z zawinionym zachowaniem konkretnej osoby. W kontekście szkód wyrządzonych przez AI, stosowanie art. 415 kodeksu cywilnego może napotkać dwa główne problemy. Pierwszy z nich dotyczy trudności w ustaleniu związku przyczynowego między szkodą a zachowaniem człowieka, takiego jak użytkownik technologii, jej właściciel czy posiadacz, które wstępnie uznaje się za źródło szkody. Nawet jeśli uda się wykazać zaniedbanie użytkownika (np. brak konserwacji urządzenia czy niedopełnienie aktualizacji), w przypadku systemów AI, bardzo trudno jest ustalić, jak te zaniedbania wpływają na działanie technologii, które prowadzi do szkody (zjawisko tzw. „black box effect”). Drugi problem dotyczy oceny zawinienia, a zwłaszcza tego, czy tradycyjne kryteria oceny zawinienia, stosowane w przypadkach szkód wyrządzonych przez tradycyjne działania człowieka, są odpowiednie do sytuacji, w których szkody wynikają z użycia nowoczesnych technologii.[10]
Odpowiedzialność na zasadzie ryzyka
Co do odpowiedzialności na zasadzie ryzyka, można stwierdzić, że jeśli korzystanie z określonego systemu wiąże się z podwyższonym ryzykiem wyrządzenia szkody, odpowiedzialność użytkownika lub twórcy systemu powinna zostać zaostrzona, niezależnie od winy w tradycyjnym rozumieniu. Na ten aspekt zwrócono również uwagę w Białej Księdze AI, wskazując, że wysoki poziom ryzyka związanego z używaniem mechanizmów sztucznej inteligencji, szczególnie w obszarze świadczeń zdrowotnych, może uzasadniać zaostrzenie zasad odpowiedzialności, przynajmniej w niektórych przypadkach.[11]
Zgodnie z art. 436 kodeksu cywilnego samoistny posiadacz mechanicznego środka komunikacji poruszanego za pomocą sił przyrody (np. przy pomocy pary, gazu, elektryczności czy paliw płynnych) ponosi odpowiedzialność za szkodę na osobie lub mieniu, wyrządzoną komukolwiek przez jego ruch. Jest to właśnie konstrukcja oparta na ryzyku. Do przypisania odpowiedzialności konieczne są następujące przesłanki:
- zakwalifikowanie podmiotu wyrządzającego szkodę jako posiadacza mechanicznego środka komunikacji poruszanego za pomocą sił przyrody;
- szkoda na osobie lub mieniu;
- związek przyczynowy pomiędzy szkodą a ruchem mechanicznego środka komunikacji poruszanego za pomocą sił przyrody;
- brak przesłanek egzoneracyjnych (siła wyższa, wyłączna wina poszkodowanego, wyłączna wina osoby trzeciej).
W tej konstrukcji, możliwość dochodzenia odszkodowania za szkody wyrządzone przez AI zależy od ustalenia zawinionego zachowania właściciela, posiadacza lub innej osoby kontrolującej te technologie oraz wykazania związku przyczynowego między ich działaniem a wyrządzoną szkodą. W kontekście zastępowania działań ludzkich przez technologie, zwłaszcza AI, powiązanie szkód wyrządzonych przez takie technologie z jakimkolwiek zawinionym zachowaniem człowieka stanowi spore wyzwanie.[12]
Odpowiedzialność na zasadzie słuszności
Jeśli chodzi zaś odpowiedzialność na zasadzie słuszności, występuje ona, gdy norma prawna nakładająca obowiązek naprawienia szkody odwołuje się do zasad współżycia społecznego. W takim przypadku jednym z warunków zastosowania normy jest to, że naprawienie szkody jest wymagane przez te zasady. W porównaniu do innych podstaw odpowiedzialności, normy te dają sądowi większą swobodę w podejmowaniu decyzji, ponieważ obowiązek naprawienia szkody nie wynika bezpośrednio z zaistnienia określonych wydarzeń, które są mniej lub bardziej precyzyjnie opisane w przepisach.
Dopiero spełnienie tych zdarzeń upoważnia sędziego do przeprowadzenia oceny moralnej, na podstawie której zdecyduje, czy w danym przypadku należy nakładać obowiązek naprawienia szkody. Słuszność, zgodność z zasadami moralnymi oraz poczuciem sprawiedliwości stanowią ważny aspekt odpowiedzialności deliktowej, stanowiąc motywację do przypisania odpowiedzialności odszkodowawczej konkretnemu podmiotowi. Chociaż te kategorie mają swoje miejsce w tłem każdej regulacji odpowiedzialności deliktowej, na etapie jej stosowania sądy nie mają możliwości odwoływania się do tych pojęć w sposób dowolny. Sąd stosujący przepisy prawa deliktowego nie może „korygować ustawodawcy” i przypisać odpowiedzialności pozwanemu, jeśli nie zostały spełnione ustawowo określone przesłanki, nawet jeśli w konkretnej sprawie uważa to za słuszne.[13]
Postulaty, jaka konstrukcja właściwa dla AI
W 2022 r. Komisja Europejska przedstawiła projekt Dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (tzw. dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję), o czym pisaliśmy TUTAJ. Warto przypomnieć, że dyrektywa miałaby być odpowiedzią na problemy dowodowe, które występują w centralnym modelu odpowiedzialności deliktowej. Projekt dotyczy bowiem kwestii procesowych związanych z dochodzeniem roszczeń odszkodowawczych i ma na celu ułatwienie stronie powodowej uzyskania ochrony prawnej w przypadku szkód wyrządzonych przez AI. Planowana regulacja przewiduje wprowadzenie do krajowego prawa środków procesowych, które umożliwią ujawnienie dowodów niezbędnych do sformułowania roszczenia odszkodowawczego opartego na zasadzie winy, w przypadku szkód wyrządzonych przez systemy AI wysokiego ryzyka. Ponadto, dyrektywa proponuje zmiany w rozkładzie ciężaru dowodu w odniesieniu do roszczeń odszkodowawczych wynikających z pozaumownych szkód spowodowanych przez systemy AI.
Co z istniejącymi modelami odpowiedzialności?
Zdania w kwestii wyboru najbardziej odpowiedniego modelu odpowiedzialności za szkody wyrządzone przez AI jest problemem, który budzi liczne kontrowersje. Część doktryny uważa, że odpowiedzialność powinna opierać się na zasadzie winy, podczas gdy inni proponują wprowadzenie nowoczesnych modeli, takich jak odpowiedzialność na zasadzie ryzyka przy używaniu urządzeń opartych o nowe technologie. Zróżnicowanie to wynika prawdopodobnie z odmiennych interpretacji roli, jaką powinna odgrywać technologia w procesie podejmowania decyzji, a także z trudności w ustaleniu odpowiedzialności w przypadkach, gdy to AI, a nie ludzie, podejmuje kluczowe decyzje.
Profesor Wałachowska stoi na stanowisku, że obecnie należy przyjąć, że odpowiedzialność spoczywa przede wszystkim na podmiocie, który stworzył dany system AI lub jego ulepszenia (traktowane jako produkt niebezpieczny), a także na podmiocie, który korzysta z tej technologii. W tym przypadku podstawą odpowiedzialności byłaby zasada winy określona w art. 415 kodeksu cywilnego, która mogłaby obejmować również winę organizacyjną. Przykładem takiej winy może być sytuacja, w której wykazane zostanie, że urządzenia wykorzystujące AI nie były odpowiednio serwisowane lub, wbrew zaleceniom twórcy oprogramowania, nie zainstalowano wymaganych poprawek lub aktualizacji systemu.[14]
Innego zdania jest jednak profesor Chłopecki – opowiada się on za rozwiązaniem, które ustala odpowiedzialność dysponenta AI, który nie jest przedsiębiorcą, na zasadzie winy w nadzorze, natomiast w przypadku dysponenta będącego przedsiębiorcą – na zasadzie ryzyka. Przyjęcie odpowiedzialności opartej na ryzyku mogłoby stanowić mianowicie dla konsumenta nadmierne obciążenie, zwłaszcza w przypadku samouczących się algorytmów. Ponadto, zdaniem profesora stanowi ona pewne odstępstwo, które jest typowe dla stosunków gospodarczych (np. prowadzenie przedsiębiorstwa) lub dla sytuacji o stosunkowo łatwych do oszacowania poziomach szkodliwości (takich jak prowadzenie pojazdów).[15]
AI Act – pierwsze przepisy weszły w życie już od lutego 2025 r.
Mówiąc o odpowiedzialności za szkody wyrządzone przez AI, nie można pominąć omówienia najważniejszych kwestii uregulowanych w AI Akt, nakładającym podmioty wdrażające AI jasne wymogi i obowiązki dotyczące konkretnych zastosowań AI.
Kiedy prace nad niniejszym rozporządzeniem jeszcze trwały, na naszym blogu pisaliśmy zarówno o europejskim podejściu do uregulowaniu AI TUTAJ, jak i o tym z USA czy Chin, gdzie namacalnie widać wpływ aksjologii na legislację TUTAJ.
AI Act ma na celu minimalizowanie ryzyk związanych z rozwojem bardzo zaawansowanych systemów AI.[16] Można powiedzieć że w AI Act pojęcie ryzyka jest kluczowe, ponieważ podejście do systemów AI oparte jest właśnie na analizie ryzyka. Ramy regulacyjne określają bowiem cztery poziomy ryzyka:
- zakazane ryzyko
- wysokie ryzyko
- ograniczone ryzyko
- minimalne ryzyko lub brak ryzyka
Podział ten obrazowo ilustruje poniższa grafika:

Źródło: https://digital-strategy.ec.europa.eu/pl/policies/regulatory-framework-ai
W tym momencie największą uwagę trzeba poświęcić zakazanym systemom AI, o których mowa w art. 5 AI Act, ponieważ to właśnie ich używanie zostało zakazane od 2 lutego 2025 r.
W zakres zakazanych systemów wchodzą systemy:
- stosujące techniki podprogowe, techniki manipulacyjne lub wprowadzające w błąd, których celem lub skutkiem jest zmiana zachowania określonej osoby lub grupy osób;
- wykorzystujące słabości osoby lub grupy osób (m.in. ze względu na wiek, niepełnosprawność czy szczególną sytuację społeczną lub ekonomiczną), celem dokonania znacznej zmiany zachowania;
- wykorzystujące AI do tzw. scoringu społecznego, a więc dokonywania pewnej oceny na podstawie m.in. zachowań i cech osobistych;
- oceniające możliwość popełnienia przestępstwa przez osoby w przyszłości;
- tworzące lub rozbudowujące bazy danych, które służą rozpoznawaniu twarzy poprzez pozyskiwanie wizerunków twarzy z internetu lub nagrań z kamer przemysłowych;
- służące do określania emocji osób fizycznych w miejscu pracy lub w instytucjach edukacyjnych;
- służące do kategoryzacji biometrycznej;
- wykorzystujące dane biometryczne w czasie rzeczywistym (z pewnymi wyjątkami).[17]
Chociaż pełne egzekwowanie postanowień AI Act zacznie obowiązywać od sierpnia 2026 r., w sierpniu 2025 r. także można się spodziewać kolejnych zmian. Mianowicie zostaną nałożone obowiązki na dostawców modeli GP-AI oraz wejdą w życie przepisy dotyczące kar, w tym administracyjnych kar pieniężnych. Równocześnie, przepisy regulujące systemy AI ogólnego przeznaczenia, które będą musiały spełniać wymogi przejrzystości, również zaczną obowiązywać od tej samej daty.[18]
My zapewne już wkrótce przyjrzymy się Wytycznym Komisji Europejskiej dotyczących zakazanych praktyk w zakresie AI opublikowanym 4 lutego br. Wytyczne te, przynajmniej w ogólnym zakresie, pomogą wyeliminować z obrotu systemy zakazane. Z założenia te generujące największe szkody dla ludzi.