Roboty jako ucieleśnienie sztucznej inteligencji towarzyszą nam współcześnie niemalże na każdym kroku. Nie są one już tylko wizją przyszłości, ale elementem życia codziennego. Nie trudno o obdarzenie ich swego rodzaju empatią, jeśli przypominają one człowieka albo zwierzę. Rodzi to więc pytanie, czy robotom przysługuje podmiotowość prawna i wiążąca się z nią ochrona? Czy wobec robota można popełnić czyn zabroniony ustawą karną? Czy prawo karne może stanowić narzędzie dla ochrony systemów sztucznej inteligencji?

Robot jako podmiot prawa

Polski kodeks cywilny reguluje stosunki cywilnoprawne między osobami fizycznymi i osobami prawnymi. Kodeks karny z kolei, jako swoiste ultima ratio dla innych dziedzin prawa, reguluje odpowiedzialność sprawców czynów zabronionych, będących w dużym uproszczeniu ludźmi albo podmiotami zbiorowymi. Warto nakreślić, że na przestrzeni wieków społeczeństwo skupione było na postępie świata przede wszystkim przez pryzmat człowieka, który odgrywał w nim kluczową rolę. Jednak w wyniku gwałtownego postępu technologicznego, tak jak wskazuje Aleksandra Nowak-Gruca, człowiek przestaje być stawiany w centrum, „a to, co ludzkie, przestaje być stawiane w opozycji tego, co nieludzkie.”[1] Czy wobec tego zachodzi potrzeba zmiany ram prawnych i dodania nowej kategorii podmiotów będących uosobieniem sztucznej inteligencji? Patrząc na proponowane definicje prawa podmiotowego, Zbigniew Radwański twierdzi, że jest to „pewna złożona sytuacja podmiotu prawnego, wyznaczona podmiotom przez obowiązujące normy i chroniąca prawnie uznane interesy tych podmiotów.”[2] Obecnie tymi prawnie chronionymi interesami są interesy osób fizycznych oraz osób prawnych.

We współczesnym świecie, który jest niejako sterowany przez algorytmy w wielu aspektach życia codziennego, wciąż brak jasnych regulacji przybliżających kwestie wykorzystania sztucznej inteligencji. Temat sztucznej inteligencji został szeroko zobrazowany w jednym z naszych poprzednich wpisów, gdzie unaoczniliśmy bezprecedensowe zdobycie przez SI szczególnej pozycji społecznej. Nie można więc przejść obojętnie obok problemu, jaką, i czy w ogóle, podmiotowość prawną przyznaje się robotom.

Współcześnie robot, jako maszyna – materialne ucieleśnienie sztucznej inteligencji, tratowany jest przez prawo jako rzecz w rozumieniu art. 45 kodeksu cywilnego[3]. Biorąc jednak pod uwagę nakreślone wyżej problemy i gwałtowny postęp technologiczny, kilku przedstawicieli doktryny zaproponowało wprowadzenie kategorii podmiotów pozaludzkich w celu rozszerzenia ram prawnych postępującej cyborgizacji.

Pietrzykowski zasugerował powstanie kategorii podmiotów pozaludzkich, która obejmowałaby zwierzęta, chimery, hybrydy, cyborgi oraz sztuczną inteligencję o odpowiednim poziomie autonomiczności. Posługując się testem Turinga, autor do warunków sine qua non pozwalających zaliczyć istotę do ww. kategorii zaliczył „inteligentne reagowanie na sytuację, wysoki stopień autonomizacji, umiejętności rozwiązywania nowych problemów oraz komunikacji w stopniu wystarczającym do wzbudzenia u obcujących z nimi ludzi odpowiednio silnego przeświadczenia, że podmioty te mają swoją subiektywną świadomość kierującą ich postępowaniem”.[4] Aleksandra Nowak-Gruca pogłębiła ten pomysł i przenosząc go na realia polskiego prawa cywilnego, zaproponowała rozszerzenie pojęcia osoby fizycznej o pojęcie quasi-osób fizycznych, które obejmowałoby przypadki implementacji funkcji ludzkiego mózgu do sztucznie inteligentnych systemów czy bytów z „wymienialnym i nieśmiertelnym ciałem”.[5]

Bardzo ciekawie problem regulacji robotów jako podmiotów prawa przedstawia H. Eidenmüller, ponieważ ich ewentualne upodmiotowienie prawne uzależnił od tego, czy ich użyteczność zostanie wyrażona w orzeczeniach sądów, będących wykładnią wartości, kierujących strukturą społeczeństwa.[6] Biorąc pod uwagę ostatni spór trójki artystów przeciwko generatorom SI, którego wyrok podyktuje sposób podejścia do treści tworzonych przez SI przez pryzmat ochrony własności intelektualnej, spojrzenie profesora Uniwersytetu Oxfordzkiego jest tylko lub aż zapowiedzią rozszerzenia dotychczas obowiązujących ram prawnych, stanowiących klucz do zrozumienia aksjologii otaczającego nas świata.  

Konsekwencje prawne ataku na robota

Na przestrzeni lat nasze wyobrażenie robota uległo zmianie, jednak pewne cechy charakterystyczne wciąż są obecne w jego wyglądzie. Myśląc o postaci robota z filmu science fiction, naszym oczom ukazuje się stereotypowe, wykonane z metalu, ucieleśnienie sztucznej inteligencji na kształt ludzki. Obraz ten był przeważnie tylko wizją odległej przyszłości, ale współcześnie roboty służą ludziom w życiu codziennym do upraszczania rutynowych czynności i często przybierają one postać właśnie człowieka albo zwierzęcia. Z uwagi na ich trwałą obecność oraz empatię w stosunku do nich, prawnicy podnoszą, że atak na robota powinien być rozpatrywany w kategoriach ataku na wartości, ważnych dla społeczeństwa[7].

Obecnie bowiem za atak na robota odpowiada się z art. 288 kodeksu karnego[8], według którego „kto cudzą rzecz niszczy, uszkadza lub czyni niezdatną do użytku, podlega karze pozbawienia wolności od 3 miesięcy do lat 5”. Robot, jako ofiara, jest zatem traktowany jako przedmiot, a nie jako podmiot. K. Mamak zwraca jednak uwagę na ciekawą kwestię, a mianowicie na ochronę przez ustawodawcę relacji ludzi z rzeczami, przytaczając przykład art. 261 kodeksu karnego, nakładającego karę za znieważenie pomnika.[9] Pokazuje to zatem brak obojętności ustawodawcy na relację człowieka z przedmiotami, kiedy w grę wchodzą wartości i wykreowana wieź. Patrząc na to, że wiele robotów przybiera ludzką postać, nie sposób pozostać obojętnym na traktowanie takich obiektów jak pierwszą z brzegu rzecz, gdyż jest to swoista imitacja człowieka, za którym stoją względy moralne.

Z pewnego rodzaju atakiem spotkał się Kerfuś, czyli robot wprowadzony do jednego z polskich marketów, przypominający kota, który miał służyć klientom jako kelner. Nie potrzeba było dużo czasu, aby internauci zaczęli tworzyć z nim memy. Memy te wymknęły się jednak spod kontroli i z ironicznych i żartobliwych, zamieniły się na takie na tle seksualnym i jawnie obraźliwych[10]. Robot Kerfuś padł więc niejako ofiarą przekroczenia granicy dozwolonej parodii. Z racji, że jest on traktowany jako rzecz w rozumieniu kodeksu cywilnego i nie posiada podmiotowości prawnej, nie przysługuje mu ochrona, która w podobnej sytuacji należałaby się osobie fizycznej czy prawnej.

Legalność wykorzystania seksualnego robota

Niejakim symbolem zmiany w postrzeganiu podmiotowości robotów jest nadanie przez Japonię statusu rezydenta chatbotowi o imieniu Mirai w 2017 r.[11] W Azji, pionierze nowoczesnych rozwiązań technologicznych, ta ewolucja rozpatrywania robotów humanoidalnych w kategoriach ludzi unaocznia się także w aspekcie miłosnym. Jak wskazują niektórzy badacze, związki z robotami stanowią niejako odpowiedź na problemy natury romantycznej i skoro emocje odczuwane z robotem są takie same jak z drugim człowiekiem, nie uwidacznia się potrzeba autentycznego odczuwania czy odwzajemniania uczucia ze strony żywej osoby. Podejście to może być szkodliwe dla zdolności budowania faktycznych relacji między ludźmi, jednak socjologiczne efekty tego zjawiska pojawią się zapewne dopiero na przestrzeni lat.

Równie kontrowersyjnym problemem jest wprowadzenie na rynek sekslalek, umożliwiających symulację gwałtu. Kwestia uprzedmiotawiania kobiet w ten sposób została trafnie skomentowana przez profesor Sharkey: „sex lalki, już ze względu na sam ich wygląd i design, ucieleśniają postawę światopoglądową, w której kobiety podporządkowane są mężczyznom i służą im jako przedmioty [sic!] do speł­nienia męskich fantazji erotycznych. Ten sam rodzaj krzywdy wyrządzany jest przez porno­grafię i teraz replikuje się go w kontekście sex robotów. Tak samo jak pornografia, używanie sex lalek przydaje erotyzmu gwałtowi, przemocy, molestowaniu seksualnemu oraz dominacji i podporządkowaniu”[12]. Jak zauważa Pawińska, z racji, że w polskim systemie prawnym robot nie uzyskał statusu osoby, symulacja gwałtu na lalce nie będzie traktowana jako czyn zabroniony.[13]

Gwałt jest przestępstwem skierowanym przeciwko wolności seksualnej człowieka i stanowi naruszenie jego prawa do swobodnego decydowania w sprawie podjęcia lub niepodjęcia czynności seksualnej. Znamieniem przestępstwa gwałtu jest obcowanie płciowe z jednostką wbrew jej woli. Robotowi natomiast nie można przypisać pełnej swobody w dokonywaniu czynności, stąd prawnie niemożliwym jest zakwalifikowanie gwałtu na robocie jako przestępstwo gwałtu w rozumieniu kodeksu karnego. Co więcej, jeszcze bardziej szkodliwym zjawiskiem jest wprowadzenie na rynek sekslalek wyglądających jak dzieci. Twórca tych lalek argumentuje potrzebę powstania tego produktu w celach wyładowania napięcia seksualnego przez osoby, mające taką fantazję, gdyż zapobiegnie to ewentualnym krzywdom na dzieciach.[14] Zagadnienie to jest na tyle skomplikowane, ponieważ nie rozważamy tutaj nieszkodliwej praktyki seksualnej, tylko akt pedofilii, będący zagrożeniem dla moralności publicznej. Do kwestii tej odnosi się K.Mamak, który powołując się na art. 200b kodeksu karnego, zaznacza, że „jeśli producent próbowałby się reklamować i mówić o zaletach robota – dziecka, związanych z ich posiadaniem, to mogłoby to wyczerpać znamiona przestępstwa propagowania pedofilii”.[15]

Roboty coraz bardziej przypominają wyglądem ludzi. Co zatem stałoby się gdyby ktoś dopuścił się gwałtu na sekslalce, sądząc, że odbywa stosunek płciowy z żywą kobietą? Wówczas doszłoby do usiłowania nieudolnego, zdefiniowanego w art. 13§2 Kodeksu karnego. Nieudolnego z tego powodu, że sprawca nie uświadamiałby sobie, że „dokonanie jest niemożliwe ze względu na brak przedmiotu nadającego się do popełnienia na nim czynu zabronionego lub ze względu na użycie środka nie nadającego się do popełnienia czynu zabronionego”. Nie jest jednak wykluczone, że „symulacja gwałtu na humanoidalnym robocie obdarzonym sztuczną inteligencją, przypominającym do złudzenia żywą kobietę, może być zachowaniem, które będzie oceniane przez ogół społeczeństwa jako niezgodne z moralnością społeczną, mimo że sam czyn nie jest wykonany „wbrew woli robota”[16].

AI jako przedmiot przestępstw przeciwko ochronie informacji

W obecnie funkcjonującym w Polsce systemie prawno-karnym z całą pewnością można wykluczyć istnienie odpowiedzialności karnej AI, czy maszyn lub urządzeń wyposażonych w AI. Sprawcą przestępstwa może być jedynie człowiek i to mający odpowiednie przymioty, tj. wiek oraz poczytalność [17]. Parlament Europejski już od wielu lat dostrzega konieczność regulacji AI i szeroko rozumianej robotyki. W lutym 2017 r. PE wydał rezolucję zawierające zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki. Dostrzeżono w mniej między innymi problematykę robotów służących do sprawa opieki nad osobami starszymi czy robotów medycznych, a także pilnej potrzeby uregulowania zasad odpowiedzialności cywilnej za szkody spowodowane przez robota[18]. Pomimo pojawiających się projektów regulacji AI, o czym pisaliśmy m.in. tutaj nadal brak nowych regulacji karnych w zakresie AI, dlatego poszukując karnej ochrony AI powinnyśmy sięgnąć do obowiązujących regulacji.

wpływanie na przetwarzanie danych przez AI

Zgodnie z art. 268a §1 kodeksu karego: kto, nie będąc do tego uprawnionym, niszczy, uszkadza, usuwa, zmienia lub utrudnia dostęp do danych informatycznych albo w istotnym stopniu zakłóca lub uniemożliwia automatyczne przetwarzanie, gromadzenie lub przekazywanie takich danych, podlega karze pozbawienia wolności do lat 3. W przypadku wyrządzenia takim czynem znaczącej szkody majątkowej (czyli przekraczającej wartość 200 000 złotych) sprawca podlega karze pozbywania wolności od 3 miesięcy do 5 lat. ściganie obu tych przestępstwa następuje na wniosek pokrzywdzonego.

Dane informatyczne w rozumieniu tego przepisu należy definiować zgodnie z Konwencją o cyberprzestępczości, która określa dane informatyczne jako “dowolne przedstawienie faktów, informacji lub pojęć w formie właściwej do przetwarzania w systemie komputerowym, łącznie z odpowiednim programem powodującym wykonanie funkcji przez system informatyczny“[19].

Istotnym zakłóceniem przetwarzania danych informatycznych może być spowolnienie ich przetwarzania, uzyskiwanie nieprawidłowych wyników dokonywanych operacji itp. Uniemożliwienie przetwarzania będzie polegało na spowodowaniu niemożności pomyślnego ukończenia określonego procesu przetwarzania danych, np. przez brak możliwości uruchomienia tego przetwarzania, przerywanie przetwarzania[20].

Ściganie omawianego przestępstwa następuje na wniosek pokrzywdzonego, przy czym zgodnie z definicją zawartą w art. 49 kodeksu postępowania karnego pokrzywdzonym może być:

  1. osoba fizyczna lub prawna,
  2. nie mająca osobowości prawnej instytucja państwowa lub samorządowa, a także inna jednostka organizacja, której przepisy przyznają zdolność prawną
  3. zakład ubezpieczeń
  4. organy Państwowej Inspekcji Pracy.

Wobec tego nawet humanoid wyposażony w wysoko rozwiniętą AI nie będzie pokrzywdzonym przestępstwa wpływania na przetwarzanie przez “niego” danych, a z wnioskiem o ściganie przestępstwa będzie mógł wystąpić wyłącznie człowiek (w imieniu własnym lub w imieniu osoby prawnej czy organizacji, którą reprezentuje).

zakłócanie pracy systemu AI

Zgodnie z art. 269a kodeksu karnego: kto, nie będąc do tego uprawnionym, przez transmisję, zniszczenie, usunięcie, uszkodzenie, utrudnienie dostępu lub zmianę danych informatycznych, w istotnym stopniu zakłóca pracę systemu informatycznego, systemu teleinformatycznego lub sieci teleinformatycznej, podlega karze pozbawienia wolności od 3 miesięcy do lat 5.

System informatycznych na gruncie ww. przepisu definiowany jest jako “każde urządzenie lub grupa wzajemnie połączonych lub związanych ze sobą urządzeń, z których jedno lub więcej, zgodnie z programem, wykonuje automatyczne przetwarzanie danych”[21]. Wydaje się, że robot wyposażony w sztuczną inteligencję będzie stanowi urządzenie wykonujące automatyczne przetwarzanie danych i będzie stanowi stronę przedmiotową tego przestępstwa.

Sprawca ww. czynu nie będzie podlegał karze na podstawie art. 269c kodeksu karnego, gdy:

  1. sprawca działa wyłącznie w celu zabezpieczenia systemu albo opracowania metody takiego zabezpieczenia,
  2. sprawca niezwłocznie powiadomił dysponenta tego systemu o ujawnionych zagrożeniach,
  3. działanie sprawcy nie naruszyło interesu publicznego lub prywatnego,
  4. działanie sprawcy nie wyrządziło szkody. 

Wszystkie powyżej wymienione elementy muszą zostać spełnione łącznie aby doszło do wyłączenia karalności czynu.

robot jako narzędzie hackerskie

Zgodnie z art. 269b kodeksu karnego: Kto wytwarza, pozyskuje, zbywa lub udostępnia innym osobom urządzenia lub programy komputerowe przystosowane do popełnienia przestępstwa określonego w art. 165 § 1 pkt 4, art. 267 § 3, art. 268a § 1 albo § 2 w związku z § 1, art. 269 § 1 lub 2, art. 269a, art. 270 § 1 albo art. 270a § 1, a także hasła komputerowe, kody dostępu lub inne dane umożliwiające nieuprawniony dostęp do informacji przechowywanych w systemie informatycznym, systemie teleinformatycznym lub sieci teleinformatycznej, podlega karze pozbawienia wolności od 3 miesięcy do lat 5.

Art. 269b kodeksu karnego penalizuje wytwarzanie, pozyskiwanie, zbywanie i udostępnianie programów komputerowych, w tym także AI, służących do popełniania wskazanych tam przestępstw, w tym m.in. bezprawnego uzyskiwania informacji przy użyciu programu komputerowego albo fałszerstwa.

problem odpowiedzialności za działania robotów autonomicznych

Omawiana problematyka zdecydowanie bardziej komplikuje się przy zagadnieniu autonomicznych robotów, w szczególności tych wykorzystywanych do zadań bojowych. Brak nadzoru człowieka nad działaniami robota powoduje powstanie problemu odpowiedzialności za działania lub zaniechania tego robota. W przypadku robotów, które mogą być chociażby częściowo nadzorowane przez człowieka można przyjąć model odpowiedzialności człowieka za działania lub zaniechania robota, jako gwaranta. Natomiast w przypadku, gdy człowiek jedynie wyznacza zadanie robotowi i nie może wpłynąć na jego realizację przez robota, ani na “proces decyzyjny” robota (tzw. koncepcja man-out-of-the-loop”) ustalenie podmiotu odpowiedzialnego jest znacząco utrudnione[22]. Przy czym niezależnie od próby ustalenia zasad odpowiedzialności, na ten moment raczej nikt nie dopuszcza możliwości uznania robota jaki podmiotu obowiązanego i odpowiedzialnego za swoje “czyny”.

To tylko wizja przyszłości?

Tak jak wizja wprowadzenia oddzielnej kategorii podmiotowej wydaje się ekstremalna dla ustawodawcy, to pomocą w potrzebie zaostrzenia kar za ataki na roboty czy zapobiegnięcia ich wykorzystywaniu seksualnego, mogłaby być zmiana ich kodeksowego statusu moralnego, jak w przypadku zwierząt. Postępujący szybki rozwój technologiczny, to punkt zapalny ku nakreśleniu nowych ram prawnych. Jest to bowiem ważne dla kształtowania polityki społecznej na potrzeby nowoczesnego systemu na miarę współczesnego świata. Obecne regulacje prawa karnego mogą być wykorzystywane do ochrony “rzeczy” jaką jest maszyna wyposażona w AI. Wydaje się jednak, że współistnienie człowieka z AI wymusi zrównanie karnej ochrony robotów, chimer i cyborgów z ochroną jaką człowiek zapewnił zwierzętom.
W kolejnych wpisach poświęconych ochronie sztucznej inteligencji przyjrzymy się innym regulacjom prawnym jakie możemy zastosować do ochrony AI.

Photo by Alex Shuper on Unsplash

[1] A. Nowak-Gruca, Cyborg, czyli kto? O prawach cyborgów w ujęciu interdyscyplinarnym, Warszawa 2023
[2] Z. Radwański, Zarys części ogólnej prawa cywilnego, s. 77
[3] Ustawa z dnia 23 kwietnia 1964 r. Kodeks cywilny (t.j. Dz. U. z 2023 r. poz. 1610 z późn. zm.).
[4] T. Pietrzykowski, Ludzkie, niezbyt ludzkie, s. 211-212
[5] A. Nowak-Gruca, Cyborg, czyli kto? O prawach cyborgów w ujęciu interdyscyplinarnym, Warszawa 2023
[6] H. Eidenmüller, Robots’Legal Personality, https://blogs.law.ox.ac.uk/research-and-subject-groups/research-collection-law-and-technology/blog/2017/02/robots%E2%80%99-legal  [dostęp: 09.10.2023]
[7] Ataki na roboty powinny być skodyfikowane  [prawo.pl]  [dostęp: 12.10.2023]
[8] Ustawa z dnia 6 czerwca 1997 r. Kodeks karny (t.j. Dz. U. z 2022 r. poz. 1138 z późn. zm.).
[9] Ataki na roboty powinny być skodyfikowane  [prawo.pl]  [dostęp: 12.10.2023].
[10] https://natemat.pl/443992,kerfus-o-co-z-tym-chodzi-z-tym-memem-internauci-chca-zgwalcic-robota  [dostęp: 12.10.2023].
[11] https://www.iflscience.com/japan-has-just-granted-residency-to-an-ai-bot-in-a-world-first-44606  [dostęp: 12.10.2023].
[12] M. Pawińska „Dopuszczalność gwałtu na humanoidalnym robocie” ACTA UNIVERSITATIS LODZIENSIS FOLIA IURIDICA 86, 2019.
[13] M. Pawińska „Dopuszczalność gwałtu na humanoidalnym robocie” ACTA UNIVERSITATIS LODZIENSIS FOLIA IURIDICA 86, 2019.
[14] Ataki na roboty powinny być skodyfikowane  [prawo.pl]  [dostęp: 12.10.2023].
[15] Ataki na roboty powinny być skodyfikowane  [prawo.pl]  [dostęp: 12.10.2023].
[16] A. Nowak-Gruca, “Cyborg, czyli kto? O prawach cyborgów w ujęciu interdyscyplinarnym”
[17] A. Szwarc, [w:] R. Dębski (red.), System Prawa Karnego, t. 3, Nauka o przestępstwie, Zasady odpowiedzialności, Warszawa 2017, s. 142 i n.
[18] Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017 r. zawierające zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL)).
[19] art. 1 pkt b Konwencji o cyberprzestępczości.
[20] wyrok Sądu Najwyższego z 30.09.2015 r., II KK 115/15.
[21] art. 1 pkt a i b Konwencji o cyberprzestępczości.
[22] R. Rejmaniak, Odpowiedzialność karna za skutki spowodowane przez autonomiczne roboty
bojowe – zarys problemu, https://www.researchgate.net/publication/339400411_Odpowiedzialnosc_karna_za_skutki_spowodowane_przez_autonomiczne_roboty_bojowe_-_zarys_problemu
Udostępnij