Pierwsze na świecie prawo o sztucznej inteligencji powstaje w czasie gdy piszemy ten artykuł! Z tej okazji warto przyjrzeć się europejskiej drodze do przyjęcia Aktu w sprawie sztucznej inteligencji (AI Act), nad którym prace wchodzą właśnie w decydującą fazę. To właśnie Unia Europejska będzie bowiem pierwszą jurysdykcją, która pochwali się regulacją poświęconą w całości AI. Zamiar przyjęcia prawa w zakresie AI deklarują też państwa reprezentujące inne systemy prawne, np. Stany Zjednoczone.

Zanim opiszemy ścieżkę powstawania AI Act warto umiejscowić powstający właśnie akt prawny w szerszym kontekście polityczno – kulturowym. Przyjrzyjmy się zatem cechom charakteryzującym stosunek głównych współczesnych systemów politycznych do nowoczesnych technologii, w tym do AI.

Chiny

Cechy systemu chińskiego w dużej mierze wynikają ze specyficznego połączenia rynkowego systemu gospodarczego z komunistycznym i totalitarnym reżimem politycznym. W efekcie, Chiny cechują się z jednej strony bardzo intensywnym rozwojem technologii i inwestycji w tą gałąź gospodarki, a z drugiej strony podporządkowaniem technologii celom państwa totalitarnego. Cechy podejścia chińskiego do sztucznej inteligencji dobrze oddaje informacja pochodząca z doniesień medialnych, wg której Chińska Agencja ds. Cyber – bezpieczeństwa planuje wprowadzenie przepisów, zgodnie z którymi AI będzie musiała być zgodna z ideologią komunistyczną. Treści generowane w Chinach przez sztuczną inteligencję będą musiały odpowiadać „wartościom socjalistycznym” i nie będą mogły kwestionować panującej władzy. Przed przystąpieniem do korzystania z systemu AI użytkownicy będą musieli podawać swoje prawdziwe dane osobowe, co ma to rzekomo ułatwić wychwytywanie osób korzystających z tych narzędzi w wątpliwych celach1.

Co równie charakterystyczne, w Chinach z powodzeniem wykorzystuje się takie systemy AI, które Unii Europejskiej będą zakazane przez powstające właśnie prawo., tj. no. systemy służące klasyfikowaniu  i profilowaniu obywateli do celów tzw. kredytu społecznego.

USA

System amerykański opiera się na państwie prawa i demokracji liberalnej, idącej w parze z gospodarką rynkową, także charakteryzującą się intensywnym rozwojem nowych technologii, w tym funkcjonowaniem gigantów technologicznych. Z prawnego punktu widzenia rozwojowi systemów sztucznej inteligencji morze sprzyjać dość specyficzna cecha amerykańskiego prawa autorskiego, tj. tzw. doktryna fair use, o której pisaliśmy tutaj. Zasada fair use pozwala użytkownikom korzystać z chronionych utworów bez zgody twórców w szerszym stopniu, niż pozwala na to europejski odpowiednik doktryny fair use, tzn. instytucja dozwolonego użytku. Tym samym fair use pozwala na na swobodniejsze niż w Europie korzystanie z chronionych danych o cechach utworu np. do celów tworzenia modeli sztucznej inteligencji.

Na poziomie politycznym, w USA, podobnie jak w Europie widoczne są dążenia do uregulowania sztucznej inteligencji, wyrażane zarówno przez aktualną administrację, jak i branżę technologii AI, w tym szefa firmy Open AI, które stworzyła ChatGPT.[2]

Europa

Wszystko jednak wskazuje na to, że to Europa, a konkretnie Unia Europejska będzie pierwszym systemem politycznym, który doczeka się kompleksowego prawa regulującego sztuczną inteligencję.

W agendzie społecznej i prawodawczej Unii Europejskiej sztuczna inteligencja stanowi jeden z dwóch filarów Europejskiej Strategii Cyfrowej. Drugim z nich są dane, w których obszarze uchwalono już Akt w sprawie europejskiego zarządzania danymi, o którym pisaliśmy tutaj, jak również trwają pracę nad Aktem w sprawie danych, o którym pisaliśmy tutaj.

Natomiast w odniesieniu do AI trwają obecnie intensywne prace legislacyjne nad jednolitym rozporządzeniem Unii Europejskiej w tym obszarze.

Godna zaufania AI

Europejski projekt regulacji dotyczącej AI ma silne podstawy aksjologiczne. Jest wyrazem kulturowego podejścia opartego na uniwersalnych wartościach leżących u podstaw Unii Europejskiej jako wspólnoty. Podstawowym pojęciem pojawiającym się w unijnych dokumentach dotyczących AI jest sztuczna inteligencja godna zaufania. Można ją inaczej określić mianem humanocentrycznej. Modele sztucznej inteligencji tworzone w Europie będą musiały spełniać szereg wymogów, których wspólnym celem jest stawienie człowieka w centrum, ochrona praw podstawowych i minimalizowanie ryzyka dla społeczeństwa.

Europejska droga do jednolitego prawa o sztucznej inteligencji

Zanim w 2021 r. Komisja Europejska przedstawiła pierwszy projekt rozporządzenia w AI Unia przyjmowała dokumenty miękkie mające stanowić wyraz podejścia Wspólnoty do tej technologii. Jako pierwszy, w 2018 r. został przyjęty komunikat Komisji pt. „Sztuczna Inteligencja dla Europy”. W dokumencie tym wskazano, że konieczne jest zapewnienie odpowiednich etycznych i prawnych ram dla rozwoju AI, opartych na wartościach Unii Europejskiej i tych znajdujących się w Karcie Praw Podstawowych. Komunikat wskazywał, że w pierwszym kroku należało opracować zasady etyczne.

W wykonaniu tego postulatu w 2019 r. powstały „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji”. Jest to podstawowy dokument, w którym zawarto zasady etyczne przyświecające Unii Europejskiej w zakresie AI. Główne wartości, na których ma być oparty rozwój sztucznej inteligencji w Europie to uczciwość i sprawiedliwość, poszanowanie autonomii człowieka, zapobieganie szkodom i zagrożeniom, transparentność i możliwość wytłumaczenia.

W lutym 2020 r. powstał dokument Komisji pt. „Biała księga w sprawie sztucznej inteligencji”, w którym zasygnalizowano, że należy m.in. stworzyć przepisy dedykowane AI, jak również ustanowić szczególne wymogi dla systemów wysokiego ryzyka. W wykonaniu założeń Białej Księgi, w kwietniu 2021 r. Komisja Europejska przedstawiła pierwszy projekt Rozporządzenia PE i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt w sprawie sztucznej inteligencji).

Ewolucja projektu

Pierwsza wersja projektu rozporządzenia została ogłoszona 2 lata temu; jak wiadomo, od tamtej pory w świecie AI, zarówno pod względem technologicznym, jak i społecznym nastąpiły duże zmiany. Nie tylko bowiem technologia rozwija się bardzo szybko, ale także znaczenie zwiększyła się świadomość społeczna dotycząca tych systemów. Stało się tak odkąd w końcu 2022 r. pojawił się ChatGPT, za sprawą którego sztuczna inteligencja trafiła pod strzechy.

Projekt rozporządzenia sprzed dwóch lat koncentrował się na uregulowaniu systemów AI używanych przede wszystkim w istotnych społecznie obszarach jak np. usługi krytyczne, wymiar sprawiedliwości, biometria, edukacja, praca. Od tamtego czasu zauważono potrzebę uregulowania także modeli językowych ogólnego zastosowania, jakim jest np. ChatGPT.

O proponowanej treści AI Act w wersji ogłoszonej w kwietniu 2021 r. pisaliśmy tutaj.

3 grupy ryzyka

Przypomnijmy, że rozporządzenie ma prezentować podejście oparte na ocenie ryzyka. Projekt określa 3 grupy systemów sztucznej inteligencji, do których dane rozwiązanie będzie zaliczane na podstawie generowanego przez nie ryzyka:

  • systemy generujące ryzyko nieakceptowalne będą stanowić zakazane praktyki, co oznacza, że takich technologii nie będzie można wprowadzać do obrotu,
  • rozwiązania generujące wysokie ryzyko, stanowiące największą grupę, będą dopuszczalne po spełnieniu warunków uregulowanych w AI Act; w istocie stanowi to główną oś projektu,
  • modele stwarzające małe ryzyko pozostają w zasadzie poza zakresem zainteresowania aktu.

Neutralność technologiczna i charakter AI Act

AI Act ze zrozumiałych względów nie proponuje definicji samej sztucznej inteligencji. Wprowadza natomiast definicję systemu sztucznej inteligencji, która z założenia ma być neutralna technologicznie, aby nie dezaktualizowała się wraz z rozwojem technologii. Propozycje definicji jednak ewoluowały w toku prac, czemu przyjrzymy się dalej w tym artykule.

Projektowane rozporządzenie można określić jako akt prawa publicznego, nakładający na podmioty prawa obowiązki o charakterze administracyjnym. AI będzie ustanawiać zasady wprowadzania systemów AI na rynek i ich eksploatacji, w tym obowiązki dostawców (a także dystrybutorów, importerów, użytkowników) systemów AI wysokiego ryzyka, takie jak :

  • obowiązki w zakresie prawidłowego zarządzania danymi
  • obowiązki informacyjne
  • obowiązek ustanowienia systemu zarządzania ryzykiem,
  • zasadę nadzoru ze strony człowieka,
  • obowiązki w zakresie cyber-bezpieczeństwa,
  • wymogi rejestracji zdarzeń niepożądanych

Projekt zakłada też kary pieniężne, które mogą mogły być nakładane w stosownych przypadkach niedopełnienia obowiązków przez dostawców AI.

Czego nie ma?

Przykładowo, rozporządzenie nie będzie regulować wykorzystania AI wwojskowości, ponieważ obszar ten stanowi wyłączną kompetencję państw członkowskich; pozostaje więc poza domeną regulacji Unii Europejskiej.

Wydaje się, że równie istotne jak zakres regulacji AI Act, jest to, jakie zagadnienia dotyczące AI pozostaną poza zakresem tworzonego prawa.

AI Act z założenia pomija określone, istotne obszary prawne mające zastosowanie do sztucznej inteligencji. Po pierwsze, poza jego zakresem pozostaną kwestie odpowiedzialności cywilnej za szkody wyrządzone przez AI. W tym zakresie można spodziewać się osobnych regulacji prawnych na poziomie Unii Europejskiej. We wrześniu 2022 r. ogłoszony został projekt dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji (tzw. dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję) o którym pisaliśmy tu. Po drugie, poza fragmentarycznymi odniesieniami przy okazji regulacji systemów generatywnych ogólnego przeznaczenia, AI Act co do zasady pomija także zagadnienia związane z własnością intelektualną (IP). Wydaje się jednak, że w związku z rozwojem sztucznej inteligencji, przede wszystkich modeli generatywnych, w przyszłości nie sposób będzie uniknąć przemyślenia podstawowych zasad tej gałęzi prawa. O tym, jak aktualnie prawo radzi sobie z pytaniem, czy sztuczna inteligencja może być twórcą, pisaliśmy tutaj.

Ciąg dalszy nastąpi?

Co warte podkreślenia, przyjęcie AI Act nie zamknie drogi do tego, aby dalej regulować sztuczną inteligencję, zarówno na poziomie tak unijnym, jak i krajowym, w tym aby przyjmować regulacje o charakterze sektorowym, odnoszące się np. do danej gałęzi rynku. AI Act będzie bowiem regulacją o charakterze ogólnym, zawierającą wspólne standardy związane z wprowadzaniem na rynek systemów AI.

Stan prac legislacyjnych

W dniu 11 maja 2023 r. Parlament Europejski, w ramach prac komisji wolności obywatelskich i komisji rynku wewnętrznego zaproponował poprawki do wersji przedstawionej przez Komisję (w formie tzw. projektu mandatu do dalszych negocjacji).

Projekt zawierający poprawki został przyjęty przez europosłów 14 czerwca 2023 r. w głosowaniu plenarnym i jest aktualnie negocjowany przez Parlament Europejski z Radą, czyli przedstawicielstwem rządów państw członkowskich, pod egidą Komisji. Jest to procedura tzw. trilogu, czyli dialogu trójstronnego, która ma na celu ustalenie ostatecznej treści aktu.

Zmiany wprowadzone przez PE

Parlament wprowadził poprawki, które mają rozszerzać ochronę praw podstawowych osób fizycznych.

Wprowadzono m.in. przepisy dotyczące generatywnych modeli językowych, zwanych w projekcie modelami podstawowymi lub ogólnego zastosowania (foundation models); zaproponowany został osobny artykuł dotyczący obowiązków dostawców modeli ogólnego zastosowania, którzy będą musieli przestrzegać wielu obowiązków dotyczących modeli wysokiego ryzyka.

Europarlamentarzyści poszerzyli też listę systemów wysokiego ryzyka, np. o systemy rekomendacyjne.

Co istotne, zmodyfikowano wcześniejszą definicję systemów AI, która ma być jeszcze bardziej neutralna technologicznie w stosunku do pierwotnej wersji.

Nowa definicja systemu AI

Poprzednia definicja przewidywała, że system AI oznacza oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I, które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję.

Techniki, których zastosowanie miało kwalifikować system jako system sztucznej inteligencji, to m.in.:

  • procesy uczenia maszynowego (machine learning),
  • metody oparte na logice i wiedzy, takie jak np. bazy wiedzy lub rozumowanie symboliczne,
  • podejścia statystyczne takie jak np. metody wyszukiwania lub optymalizacji

Definicja ta została poddane krytyce[3]. Głosy krytyczne wskazywały m.in. na to, że może ona prowadzić do niepewności prawnej lub skutkować nieobjęciem jej zakresem systemów, które technicznie nie będą spełniały opisanych warunków, ale mogą mieć duży wpływ na prawa podstawowe.[4]

Nowa definicja nie odnosi się już do konkretnych technik, przy użyciu których mogą być tworzone rozwiązania informatyczne, aby były uznane za systemy AI.

Wg poprawek PE systemem AI ma być system komputerowy zaprojektowany tak by mógł działać na różnym poziomie autonomii i który dla wyraźnie określonych lub dorozumianych celów może generować wyniki takie jak prognozy, zalecenia lub decyzje, które wpływają na otoczenie fizyczne lub wirtualne[5](AI ‘artificial intelligence system’ (AI system) means a machine-based system that is designed to operate with varying levels of autonomy and that can, for explicit or implicit objectives, generate outputs such as predictions, recommendations, or decisions that influence physical or virtual environments).[6]

Permanentna inwigilacja? Nie z udziałem systemów AI

Parlament rozszerzył także listę zakazanych praktyk, do których będą należeć m.in.

  • systemy zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w miejscach publicznie dostępnych;
  • wykorzystywanie w przestrzeni publicznej systemów zdalnej identyfikacji biometrycznej post-factum, z jednym wyjątkiem, dotyczącym ścigania poważnych przestępstw, z uprzednią autoryzacją sądu
  • systemy kategoryzacji biometrycznej wykorzystujące cechy wrażliwe (np. płeć, rasę, pochodzenie etniczne, obywatelstwo, religię, orientację polityczną);
  • predykcyjne systemy policyjne (oparte na profilowaniu, lokalizacji lub przeszłych zachowaniach przestępczych);
  • systemy rozpoznawania emocji wykorzystywane przez organy ścigania, służby graniczne, miejsca pracy i instytucje edukacyjne;
  • nieukierunkowane pobieranie obrazów twarzy z Internetu lub nagrań telewizji przemysłowej do tworzenia baz danych rozpoznawania twarzy.

Co dalej ?

Negocjacje Parlamentu Europejskiego i Rady w celu ustalenia ostatecznej treści nowego prawa trwają od 14 czerwca 2023 r. Można spodziewać się, że potrwają conajmniej kilka miesięcy. W toku tych negocjacji warto będzie zwrócić uwagę, jakie ewentualne propozycje zmian będą zgłaszały przedstawiciele poszczególnych państw członkowskich, dając tym wyraz interesom politycznych danego rządu. Po przyjęciu ostatecznego brzmienia rozporządzenia i jego ogłoszeniu będzie miał miejsce okres przejściowy przed rozpoczęciem stosowania aktu, tak by przedsiębiorcy mogli przygotować się do obowiązywania nowych przepisów, podobnie jak miało to miejsce w przypadku rozporządzenia RODO.

Zapraszamy do śledzenia aktualności na temat pierwszego prawa sztucznej inteligencji!

Photo by Iván Díaz on Unsplash

[1] https://cyfrowa.rp.pl/globalne-interesy/art38293371-sztuczna-inteligencja-musi-byc-komunistyczna-tak-chca-chiny, wejście 20. 06. 2023; https://www.cdaction.pl/newsy/chiny-biora-sie-za-ai-jak-sztuczna-inteligencja-zapatruje-sie-na-komunizm, wejście 20. 06. 2023
[2]vide wystąpienie Sama Altmana, CEO Open AI w amerykańskim Senacie w dniu 16. 05. 2023
[3] Za Briefingiem Parlamentu Europejskiego: EU legislation in progress, Artificial Intelligence Act, dostępny na https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf, wejście 20. 06. 2023
[4] ibidem
[5] Tłumaczenie własne
[6] DRAFT Compromise Amendments on the Draft Report Proposal for a regulation of the European Parliament and of the Council on harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts, 16. 05. 2023, dostępny na https://www.europarl.europa.eu/resources/library/media/20230516RES90302/20230516RES90302.pdf, wejście 20. 06. 2023

Udostępnij