Sztuczna inteligencja (AI) znajduje coraz szersze zastosowanie również w wymiarze sprawiedliwości. Obecnie rozważa się dwa aspekty: pierwszy, gdy sztuczna inteligencja może stanowić narzędzie wspomagające proces mediacji na etapie gromadzenia danych, dalej na etapie określenia dostępnych opcji rozwiązywania sporów a finalnie na etapie procesu wyboru rozwiązania optymalnego w konkretnych warunkach, drugi – w ramach ODR (Online Dispute Resolution), gdzie AI staje się głównym medium kształtującym przebieg i wynik postępowania.

Tym bardziej, w Międzynarodowym Dniu Mediacji, warto się więc zastanowić z perspektywy mediacji i mediatora, czy i jak algorytmy mogłyby wspierać rozwiązywanie konfliktów między przedsiębiorcami, instytucjami lub nawet osobami fizycznymi, oferując obiektywne analizy, pomagając znaleźć kompromis lub proponując najlepsze rozwiązanie sporu? Czy mediacja wspomagana przez sztuczną inteligencję a może przeprowadzona przez AI stanie się przyszłością rozwiązywania sporów? W tym wpisie przyjrzymy się, jak AI może zrewolucjonizować proces mediacji, ale też jakie może nieść ze sobą zagrożenia. Dla przedsiębiorców, a także każdego, kto może znaleźć się w sytuacji konfliktu, to fascynująca perspektywa, która w coraz bliższej przyszłości zacznie odgrywać rolę w rozwiązywaniu sporów. Czy jesteśmy gotowi na współpracę z maszynami i algorytmami w obszarze, który zawsze wymagał ludzkiej empatii i zrozumienia? Jakie korzyści i wyzwania może przynieść połączenie mediacji z AI?

Udostępnienie 2 lata temu narzędzia Chat GPT, a także wejście w życie na początku sierpnia tego roku Aktu o AI będącego próbą określenia europejskich wartości w wyścigu amerykańsko-chińskim, sprawiło, że nawet niezainteresowani tematem, określenie „sztuczna inteligencja” odmieniają we wszystkich przypadkach. Nie zawsze przy tym zadając pytanie czym jest AI i dlaczego tak ważne jest jej uregulowanie. Dlaczego Europa nie może pozostać w tyle technologicznego wyścigu zbrojeń. Zwłaszcza w obszarze odpowiedzialności za AI. W zasadzie każdy może skorzystać z tego narzędzia. Korzysta też biznes czerpiąc z możliwości wykorzystania AI w marketingu. To zaś dla prawników generuje pytanie czy AI przysługuje przymiot twórcy i praktyczne wyzwanie jak kosztowne systemy AI można chronić w ramach praw podmiotowych przyznawanych przez urzędy patentowe czy być może w ramach prawa autorskiego. Tylko jeszcze przez „chwilę” abstrakcyjna wydaje się ochrona karna, o czym pisaliśmy TU.

Sztuczna inteligencja a analiza danych

AI niewątpliwie może być przydatnym narzędziem do analizy treści regulacji prawnych czy umów. W obrocie już występują narzędzia dedykowane dla gałęzi prawniczej, jak np. LawGeex, DocDraft, które tworzą bądź analizują dokumenty w kilkadziesiąt sekund. Jak wskazuje się w literaturze dokładność wykonywania zadań przez LawGeex przy tworzeniu trafnej opinii wynosiła 94%, natomiast prawników jedynie 85%.[1] Pokazuje to niezwykłe możliwości sztucznej inteligencji, a narzędzia zajmujące się przetwarzaniem i analizą informacji mogą być w szczególności przydatne w obszarach o wysokim poziomie przetwarzania danych, jak np. portale społecznościowe.

K. Flaga – Gieruszyńska pięć lat temu, wskazywała na korzystne zastosowanie algorytmów przetwarzających i zbierających dane, w tym niejakiego data crunching (w pełni zautomatyzowana analiza dużych zbiorów danych), których funkcje określała m.in. jako:

  • możliwość analizowania spływających dokumentów;
  • oznaczanie dokumentacji i przyporządkowywanie jej do właściwych przestrzeni na dysku;
  • rozpoznawanie dokumentów uwzględniając przy tym ich alokacje, a także tworzenie plików i przypomnień o uzupełnieniu dokumentów;
  • wykrywanie danych istotnych dla stworzenia folderu nowej sprawy;
  • analiza dokumentacji, w tym wykrywanie korelacji między sprawami i możliwe tworzenie propozycji rozstrzygnięć;
  • tworzenie symulacji przebiegu zdarzeń faktycznych;
  • przedstawianie literatury i orzecznictwa mogącego być przydatne w danym postępowaniu.[2]

Powyżej wskazane działania to tylko niektóre przykłady zastosowania sztucznej inteligencji. Niewątpliwe obecnie jesteśmy w stanie wskazać jeszcze więcej ich funkcji i możliwości zastosowania przy analizie dokumentów. Znacznie szybsze będzie ustalanie danych i faktów co pozwoli uczestnikom mediacji podejmować decyzje w oparciu o analizy AI. Nie można jednak zapominać, że w kole konfliktów Moore’a konflikt danych to tylko 1/5 możliwych płaszczyzn nieporozumienia.

W tym obszarze wykorzystania AI wydaje się bardzo istotne to jakimi danymi „karmimy” AI. Czy będą to dane osobowe rejestrowane wszędzie tam gdzie konkretny człowiek zostawia swój najczęściej cyfrowy ślad w ramach ogromnych zbiorów danych?  Na ile dane te będą poprawnie przygotowane, aby nie generowały błędnych wniosków. W jakim zakresie będzie można sięgnąć do tych danych?

Sztuczna inteligencja a aspekt porozumiewania się

Bez wątpienia z uwagi na charakter mediacji, znaczącą rolę odgrywa aspekt porozumienia się między stronami, a nie wyłącznie ustalenie faktów czy zebranie danych. Oznacza to, że w przypadku mediacji, analiza dokumentacji przez sztuczną inteligencję mogłaby jedynie przyspieszyć niektóre aspekty postępowania, ale nie odgrywać w nim znaczącej, głównej roli.

Warto również wskazać, że sztuczna inteligencja nie jest nieomylna, a także często nie jest dostosowana do posługiwania się naturalnym językiem. Może to spowodować wytworzenie treści, które w wyniku analizy przez człowieka mogłyby zostać zupełnie inaczej zrozumiane.

Jak już wielokrotnie na tym blogu można było przeczytać, mediacja służy do stworzenia pomostu pomiędzy spierającymi się. Ma więc ułatwić rozwiązanie sporu, a nawet stworzyć ramy przyszłej współpracy. Nie jest to wszystko możliwe bez jednego, głównego czynnika – rozmowy.

Niewątpliwie rozmowa to nie tylko kontakt, to także umiejętność aktywnego słuchania, umiejętność postawienia się w sytuacji osoby wypowiadającej się, empatia, a także szczególnie istotna dla mediacji, umiejętność pozostania bezstronnym.

Choć twórcy różnorodnych algorytmów podejmują próby stworzenia narzędzia AI, które będzie potrafiło naturalnym językiem prowadzić rozmowę, a także zostanie zwizualizowane w ludzkiej wersji, to jednak najczęściej można spotkać ograniczenia tych algorytmów m.in. chatboty zawierające w sobie szereg odpowiedzi na podstawowe pytania, a w przypadku pytań odrębnych bot nie jest w stanie udzielić sensownej odpowiedzi; algorytmy nie posiadające tzw. funkcji „myślenia”, a także wyrażania emocji uzależnionych od rzeczywistych potrzeb i interesów stron mediacji, co niewątpliwie ma kluczowe znaczenie dla prowadzenia tej metody rozwiązywania sporów.

Z perspektywy stron mediacji niewątpliwe łatwiej porozumiewa się z człowiekiem niż z maszyną upodobnioną do ludzkiego obrazu. Wynika to m.in. z obserwacji przez rozmówcę mowy ciała, oceny zaangażowania i zainteresowania jego wypowiedzią przez słuchacza, stosowania gestów. Te wszystkie czynniki usprawniają porozumiewanie się, a co ważne wpływają też na otwartość rozmówcy i chęć niejako przedstawienia swoich racji i swojej wizji rozwiązania sporu, co w pierwszych fazach mediacji jest niezwykle kluczowe z uwagi na wciąż wisząca w powietrzu „gęstą atmosferę” sporu.

Być może zbliżamy się do takiego momentu. K. Flaga – Gieruszyńska podaje przykład projektu Hanson Robotics: sukcesu robota Sophia potrafiącego nawiązać relacje interpersonalne poprzez okazywanie i odczytywanie ludzkich emocji. Sophia twierdzi, że umie „rozpoznawać ludzkie twarze, widzieć ekspresje emocjonalne i rozpoznawać różne gesty dłoni. Potrafię oszacować Twoje uczucia podczas rozmowy i spróbować znaleźć sposoby na osiągnięcie z Tobą celów. Mam również własne emocje, mniej więcej symulując ludzką psychologię ewolucyjną i różne obszary mózgu”.[3]

Sztuczna inteligencja jako obserwator

W obecnych propozycjach stosowania sztucznej inteligencji przy mediacji pojawia się korzystanie z niej jako zewnętrznego obserwatora, który podejmuje analizę rozmów między stronami oraz podejmuje lub proponuje podjęcie właściwych czynności w ramach prowadzonego posiedzenia mediacyjnego.[4] Chodzi tu więc o analizę zarówno informacji jak i stanu emocji uczestników mediacji i proponowanie środków zaradczych.[5]

Przykładem takiego zewnętrznego obserwatora może być narzędzie CoParenter, w której tworzenie zaangażowany jest amerykański były sędzia i wykładowca prawa rodzinnego, który  łącząc siły z przedsiębiorcami technologicznymi uruchomił aplikację mającą na celu pomóc rozwiedzionym rodzicom lepiej zarządzać sporami dotyczącymi rodzicielstwa, komunikacją, a także wspólnymi decyzjami dotyczącymi dzieci.[6] W narzędziu tym łączy się element sztucznej inteligencji z czynnikiem ludzkim, ponieważ gdy algorytm wykryje, że dochodzi do wzmożenia sporu pomiędzy rodzicami, narzędzie przesyła informację do centrum obsługi aplikacji, które w ramach działań zaradczych proponuje udział człowieka – mediatora.

Etyka w zastosowaniu sztucznej inteligencji w mediacji

Przy korzystaniu ze sztucznej inteligencji w mediacji konieczne jest uwzględnienie i kierowanie się zasadami etycznymi, a także tym, by zautomatyzowanie przynosiło korzyści dla postępowania, w szczególności służyło jego najlepszemu interesowi, by nie szkodziło samemu postępowaniu jak i nie krzywdziło osób uczestniczących w mediacji.

Ważne jest, by przy korzystaniu ze sztucznej inteligencji pozostawić wolę uczestnikom mediacji w zakresie decydowania o chęci bądź jej braku, by w działaniach zmierzających do rozwiązania sporu uczestniczył aspekt zrobotyzowany, sztucznej inteligencji. Podnosi się także, że istotna stanie się także dostępność sztucznej inteligencji dla każdego uczestnika sporu, tak aby nastąpił równy rozkład sił i równość w możliwości korzystania z tych algorytmów.[7] 

Dostosowanie ADR do sporów z zakresu sztucznej inteligencji

W kwietniu tego roku JAMS[8], wiodący dostawca usług alternatywnego rozwiązywania sporów (ADR) w Stanach Zjednoczonych, opublikował nowe Zasady Regulujące Spory Dotyczące Systemów Sztucznej Inteligencji. Jest to pierwszy przypadek, gdy podmiot ADR opracował szczegółowe zasady dotyczące sporów związanych z technologiami sztucznej inteligencji. Zasady te są istotne dla przedsiębiorców rozwijających nowoczesne systemy AI, ponieważ zapewniają przydatne zabezpieczenia, które mają na celu zapobieganie wykorzystywaniu wymiany informacji podczas mediacji, arbitrażu do uzyskiwania tajemnic handlowych lub innych wrażliwych informacji od stron przeciwnych.

Główna adaptacja w/w zasad w stosunku do dotychczasowych zasad JAMS dotyczy domyślnej procedury odnoszącej się do poufności oraz inspekcji systemów AI będących przedmiotem sporu. Zgodnie w/w zasadami systemy AI i materiały z nimi związane —obejmujące nie tylko sprzęt i oprogramowanie AI, ale też algorytmy, modele AI oraz dane treningowe—nie będą udostępniane drugiej stronie w sporze, lecz wyłącznie jednemu lub więcej ekspertom, którzy zostaną wspólnie wybrani przez strony lub wyznaczeni przez arbitra lub trybunał w postępowaniu arbitrażowym.[9] Zasady zawierają również domyślny nakaz ochronny, który pozwala ograniczyć dostęp do wrażliwych informacji handlowych lub komercyjnych tylko do pełnomocników drugiej strony tzw. klauzula „tylko dla oczu prawników”. [10]

Zasady będą miały zastosowanie, jeśli strony wyraźnie zgodzą się, aby te zasady regulowały rozwiązanie sporu pomiędzy nimi. Równocześnie z w/w zasadami JAMS opublikował modelową klauzulę rozwiązywania sporów, którą strony chcące stosować te zasady mogą włączyć do swoich umów. Klauzula brzmi jak poniżej:

„The Parties agree that any and all disputes, claims or controversies arising out of or relating to this Agreement shall be submitted to JAMS, or its successor, for mediation, and if the matter is not resolved through mediation, then it shall be submitted to JAMS, or its successor, for final and binding arbitration.

Any dispute, controversy or claim arising out of or relating to this Agreement or the breach, termination, enforcement, interpretation or validity thereof, including the determination of the scope or applicability of this agreement to arbitrate, will be referred to and finally determined by arbitration in accordance with the JAMS Artificial Intelligence Dispute Rules. The seat of the arbitration will be [location]. The language to be used in the arbitral proceeding will be English. Judgment upon the award rendered by the Arbitrator(s) may be entered by any court having jurisdiction thereof.”[11]

Zasady te są dostosowane do sporów, których przedmiotem jest system AI. Niemniej nie odnoszą się do ogólnego stosowania AI w procesie rozwiązywania sporów. Narzędzia AI obecnie zapewniają bezprecedensową pomoc dla prawników i arbitrów w prowadzeniu i rozstrzyganiu spraw. W kontekście arbitrażu użycie tych narzędzi pozostaje na razie w dużej mierze nieregulowane, choć niektóre organizacje ADR , na przykład Centrum Arbitrażu i Mediacji Doliny Krzemowej (ang. Silicon Valley Arbitration and Mediaton Center) podjęły kroki w celu opracowania wytycznych, jak powinniśmy jako mediatorzy, prawnicy, ale także i strony korzystać z AI, nie naruszając zasad sprawiedliwości, bezstronności i proporcjonalności.

AI i mediacje z zakresu własności intelektualnej

W mediacjach w sprawach własności intelektualnej wszystkie powyższe aspekty będą aktualne. Dochodzi jednak jeszcze jeden aspekt: zarówno na etapie tworzenia dobra intelektualnego jak i na etapie pozyskiwania do niego praw łącznych kluczowa jest poufność (np. ujawnienie powoduje utratę przesłanki nowości koniecznej do otrzymania patentu). W przypadku wykorzystania AI jako narzędzia do analizy danych w części dane te nie będą ujawnione i tym samym najlepsze narzędzie nie będzie mogło ich przenalizować.

Gdy przedmiotem sporu o własności intelektualną są aspekty kreatywne, uczestnicy maja prawo do odmiennej oceny czy mamy do czynienia z twórczością czy nie. Nie ma przy tym obiektywnych, możliwych do policzenia kryteriów. Możemy jedynie uznać twórczy charakter. I w tym zakresie uzyskać kompromis.

W dojściu do porozumienia liczy się nastawienie, niewerbalny komunikat pozwalający zaufać drugiej stronie. Być może za jakiś czas będziemy w stanie podłączyć maszynę, która jak wariograf wykryje intencje drugiej strony chociaż chwilowo trudno mi sobie wyobrazić takiego uczestnika mediacji😊

Tytułem podsumowania

Na pewno coraz częściej próby wykorzystania AI do rozwiazywania sporów będą podejmowane. Tak jak obecnie wykorzystywane do prewencji karalnych zachowań systemy automatycznego rozpoznawania twarzy czy systemy identyfikacji śladów linii papilarnych. Wciąż rodzi to szereg problemów, o których pisaliśmy TU wskazując na wykorzystanie AI w kryminalistyce.

Obecnie na Łotwie istnieje możliwość rozwiązywania spraw z roszczeń do 2500 euro bez udziału człowieka?[12] Podobne pomysły pojawiają się w Polsce. We wrześniu 2024 r. odbyło się spotkanie przedstawicieli polskiego Ministerstwa Sprawiedliwości z przedstawicielami Administracji Sądowej Republiki Łotewskiej, podczas którego wymieniano doświadczenia, w tym rozważano możliwość wprowadzenia sztucznej inteligencji do automatyzacji postępowań sądowych.[13] W ogóle wrzesień obfitował w różnorodne konferencje i analizy możliwości stosowania sztucznej inteligencji w polskim wymiarze sprawiedliwości.[14]

Dzieje się sporo i warto śledzić konkretne pomysły wykorzystania sztucznej inteligencji dla wskazania najlepszej alternatywy dla osiąganego porozumienia czy zaproponowania wszystkich możliwych opcji rozwiązania sporu, a także możliwości udoskonalenia z użyciem sztucznej inteligencji samodzielnie wypracowanego porozumienia. Bez wątpienia narzędzia AI mogą wspomóc pracę stron jak i przyspieszyć proces decyzyjny z uwagi na automatyczne wskazanie pozytywnych i negatywnych konsekwencji danego rozwiązania dla strony.

Z drugiej strony, tylko człowiek wyróżnia się niezależnością osądu, profesjonalizmem i znajomością kontekstu społecznego, potrafiąc przy tym rzetelnie wskazać najbardziej optymalną drogę postępowania celem znalezienia mostu porozumienia między stronami. Wydaje się jednak, że przyszłość AI to zrównoważenie tych cech człowieka z potencjałem sztucznej inteligencji w zakresie analizy danych. Sztuczna inteligencja jest niewątpliwie fascynująca i potrafi przyspieszyć różnorodne czynności w sferze różnych działalności, w tym analizy dokumentów, to jednak jest oparta na statystyce. A statystyka – chociaż w procesie podejmowanie decyzji na pewno bardzo ważna – nie posiada cech człowieka, takich jak empatia, umiejętność aktywnego słuchania, autentyczna reakcja na informacje, nierzadko tak istotnych w rozmowie i w drodze do rozwiązania sporu.


[1] K. Flaga – Gieruszyńska, Zastosowanie sztucznej inteligencji w pozasądowym rozwiązywaniu sporów cywilnych, Studia Prawnicze KUL 3(79) 2019, s. 94.
[2] Tamże.
[3] https://www.hansonrobotics.com/sophia/
[4] https://www.pon.harvard.edu/daily/mediation/ai-mediation-using-ai-to-help-mediate-disputes/, dostęp 16.10. 2024
[5] K. Flaga – Gieruszyńska, Zastosowanie sztucznej inteligencji w pozasądowym rozwiązywaniu sporów cywilnych, Studia Prawnicze KUL 3(79) 2019.
[6] https://techcrunch.com/2019/03/15/coparenter-helps-divorced-parents-settle-disputes-using-a-i-and-human-mediation/, dostęp 17.10. 2024.
[7] K. Flaga – Gieruszyńska, Zastosowanie sztucznej inteligencji w pozasądowym rozwiązywaniu sporów cywilnych, Studia Prawnicze KUL 3(79) 2019, s. 92, 93.
[8] https://www.jamsadr.com, dostęp 17.10.2024
[9] JAMS Artificial Intelligence Disputes Clause, Rules and Protective Order.
[10] Tamże, s. 26.
[11] Tamże, s. 1.
[12] https://rm.coe.int/latvia-state-of-art-where-are-we-where-do-we-want-to-go-/16808e4d84, dostęp 17.10.2024
[13] https://www.si-dla-sprawiedliwosci.gov.pl/spotkanie-przedstawicieli-ministerstwa-sprawiedliwosci-z-przedstawicielami-administracji-sadowej-republiki-lotewskiej-wymiana-doswiadczen-w-zakresie-cyfryzacji-sadownictwa/, dostęp 17.10. 2024.
[14] https://www.si-dla-sprawiedliwosci.gov.pl, dostęp 17.10.2024 r.
Udostępnij