„Panie Marks, z nakazu Agencji Prewencji aresztuję pana za podwójne zabójstwo, które miał pan popełnić dzisiaj o godzinie 8:04 rano” – oznajmia agent John Anderton (Tom Cruise). Howard Marks – zdradzony mąż zapragnął zabić zarówno żonę jak i jej kochanka, jednak Agencja Prewencji w ostatniej chwili zapobiegła tragedii. Aresztowanie niedoszłego sprawcy w Waszyngtonie w roku 2054, umożliwiła wizja trójki jasnowidzów. Dzięki nim można zapobiec najpoważniejszym przestępstwom, a zabójstwa zostają całkowicie wyeliminowane.

To scenariusz filmowy, ale gdyby zamiast jasnowidzów do wykrywania przestępstw wykorzystać programy komputerowe przetwarzające ogromne ilości danych? Wizja ta wraz z rozwojem technologicznym staje się możliwa do realizacji dzięki kryminalistycznym metodom wykrywania przestępstw[1]. Tym bardziej, że więź komunikacyjna pomiędzy ludźmi a urządzeniami, sprawia, że jesteśmy nastawieni na tworzenie coraz bardziej zaawansowanych technologii z udziałem maszyn i Internetu[2], a w tym sztucznej inteligencji. Wizja wykreowana przez Stevena Spielberga w „Raporcie mniejszości” staje się coraz bardziej realna, a mniej lub bardziej udane próby przewidywania kryminalnych zachowań są podejmowane

Dla przykładu można wskazać realizowany kilka lat temu w AGH projekt HEIMDAL: budowa systemu wykrywania niebezpiecznych narzędzi – takich jak broń palna, noże, maczety – w systemach monitoringu wizyjnego. Dzięki stworzonemu algorytmowi kamera rozpoznaje i zaznacza na ekranie niebezpieczne narzędzie, przy czym system potrafi odróżnić pistolet od przedmiotów codziennego użytku, np. parasola. HEIMDAL nie podejmuje decyzji za człowieka, ale zwraca uwagę na potencjalne zagrożenie.

Czy zatem docieramy do czasów, w których wytworzone przez człowieka algorytmy będą miały za zadanie wykrycie sprawcy przestępstwa na podstawie wprowadzonych danych, w połączeniu z wiedzą posiadaną już przez sztuczną inteligencję, np. na podstawie zawartości Internetu? Czy wykorzystanie w metodach kryminalistycznych tego typu algorytmów w połączeniu z bazami generującymi lub analizującymi dane, nie staje w kontrze do ochrony życia prywatnego człowieka? Kto, w przypadku błędu, może odpowiadać za skutki mylnych założeń sztucznej inteligencji?

Na te i inne pytania staramy się znaleźć odpowiedź poniżej.

sztuczna inteligencja to …

W ramach teorii sztucznej inteligencji narosło wiele stereotypów[3]. Przy tego typu wytworach mamy do czynienia, najogólniej rzecz biorąc, przede wszystkim z algorytmami, które mają na celu zoptymalizować procesy do pozyskiwania, gromadzenia i analizowania danych. Powstające właśnie w Unii Europejskiej Rozporządzenie ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt w sprawie Sztucznej Inteligencji) (…) (dalej „AI ACT”)[4], (po zmianach w projekcie wprowadzonych przez Parlament Europejski) nie proponuje już definicji systemów sztucznej inteligencji opartej na konkretnych technikach tworzenia algorytmów. Aktualnie projektowana definicja systemu sztucznej inteligencji ma być z założenia neutralna technologicznie. Określa ona system sztucznej inteligencji jako system komputerowy zaprojektowany tak, by mógł działać na różnym poziomie autonomii i który dla wyraźnie określonych lub dorozumianych celów może generować wyniki takie jak prognozy, zalecenia lub decyzje, które wpływają na otoczenie fizyczne lub wirtualne.

Więcej o sztucznej inteligencji pisaliśmy tutaj, natomiast genezę, założenia i stan prac nad AI ACT opisywaliśmy tutaj.

Sztuczna inteligencja już w tym momencie jest w stanie wygenerować obrazy na podstawie danych wprowadzonych przez człowieka. W ostatnim czasie coraz częściej mówi się o generatorach zdjęć nieistniejących postaci. Na podstawie wprowadzonych komend jesteśmy w stanie „stworzyć” wirtualnego człowieka, m.in. popularne są konta w portalach społecznościowych kreujące wirtualne życie[5].

A jeśliby odwrócić założenie – tj. wpisać do bazy czy programu opis osoby i zobaczyć dotyczące jej wyniki – czy takie wyszukiwanie może być podstawą do znalezienia potencjalnych sprawców czynów zabronionych?

baza wiedzy o człowieku, a jego dobra osobiste

W raporcie analitycznym Urzędu Komunikacji Elektronicznej z grudnia 2020 r. w zakresie funkcjonowania rynku usług telekomunikacyjnych stwierdzono, że prawie wszyscy obywatele Polski (około 97%) korzystają z telefonii komórkowej i aż 92% badanych korzysta za jej pośrednictwem z Internetu, najczęściej w celu przeglądania stron internetowych, w tym korzystania z mediów społecznościowych[6]. Oznacza to, niezwykle obszerne źródło informacji o użytkownikach – obywatelach państwa, ich wyglądzie, a także drogach przemieszczania się, co potencjalnie stanowiłoby bogatą bazę wiedzy dla algorytmu.

Fantazja na temat obszernej bazy danych musi zostać skontrastowana z rzeczywistym funkcjonowaniem służb. W szczególności należy brać pod uwagę dobra osobiste człowieka, w tym ochronę sfery życia prywatnego, o której mowa wprost w art. 47 Konstytucji RP[7], a także w regulacjach międzynarodowych, rozumiane jako prawo fundamentalne[8].

Konieczne jest uwzględnienie faktu, że ściganie przestępstw i metody kryminalistyczne wykorzystywane przez państwo, mające na celu wykrywanie i osądzanie sprawców, muszą zdawać test proporcjonalności w zakresie ingerencji w prawo do życia prywatnego oraz stanowić środek konieczny w demokratycznym państwie prawa. Należy zachować równowagę między interesem publicznym i prywatnym obywateli[9].

rodzaje AI już wykorzystywane przez służby państwowe

Wykrycie sprawcy przestępstwa wymaga uprzedniego wprowadzenia danych. Sprawcę można rozpoznać m.in. analizując jego dane biometryczne – twarz lub linie papilarne.

system automatycznego rozpoznawania twarzy

Jednym z już powszechnie wykorzystywanych algorytmów sztucznej inteligencji jest system automatycznego rozpoznawania twarzy. Mieści się w zakresie szeroko pojętej identyfikacji biometrycznej. Polega na przetwarzaniu obrazów z wykorzystaniem zaprogramowanego schematu, w celu identyfikacji, weryfikacji lub wykrywania osób. Wskazuje się wiele korzyści, jakie niesie za sobą wykorzystywanie tego systemu, w szczególności w zakresie prewencji, egzekwowania prawa jak i w skutecznym zwalczaniu przestępczości. Są też przykłady ukarania podmiotu stosującego takie metody. Jak informuje na łamach newslettera 12/2022 (45) Urząd Ochrony Danych Osobowych, od maja 2020 roku francuski organ nadzorczy otrzymał skargi od osób fizycznych na oprogramowanie Clearview AI dotyczące rozpoznawania twarzy. Sprawa trafiła do składu orzekającego, który postanowił nałożyć maksymalną karę pieniężną w wysokości 20 mln euro, zgodnie z art. 83 RODO oraz nakazać Clearview AI zaprzestanie zbierania i przetwarzania bez podstawy prawnej danych osób zamieszkałych we Francji oraz usunięcie w terminie dwóch miesięcy zebranych danych tych osób.

W Rezolucji Parlamentu Europejskiego z dnia 6 października 2021 r. w sprawie sztucznej inteligencji w prawie karnym i jej stosowania przez policję i organy wymiaru sprawiedliwości w sprawach karnych (2020/2016(INI))[12] Parlament wyraził „ogromne zaniepokojenie wykorzystywaniem przez organy ścigania i służby wywiadowcze prywatnych baz danych służących do rozpoznawania twarzy, takich jak baza danych Clearview AI zawierająca ponad trzy miliardy zdjęć, które zostały pozyskane nielegalnie z sieci społecznościowych i innych miejsc w internecie, w tym od obywateli UE”. Jednocześnie Parlament wezwał państwa członkowskie do nałożenia na organy ścigania obowiązku ujawniania, czy korzystają one z technologii Clearview AI lub równoważnych technologii pochodzących od innych dostawców i przypomniał opinię Europejskiej Rady Ochrony Danych (EROD), zgodnie z którą korzystanie przez organy ścigania w Unii Europejskiej z usługi takiej jak Clearview AI „prawdopodobnie nie byłoby zgodne z unijnym systemem ochrony danych”; wzywając do wprowadzenia zakazu korzystania z prywatnych baz danych służących do rozpoznawania twarzy w ramach ścigania przestępstw.

Clearview AI stosowany był na Ukrainie, o czym pisaliśmy tu.

Aktualnie, EROD wypowiedział się na temat stosowania technologii rozpoznawania twarzy przez organy ścigania w Wytycznych 05/22, wersji nr 2 z 26 kwietnia 2023 r. EROD stwierdziła w ww. Wytycznych m.in., że wykorzystanie technologii rozpoznawania twarzy ma bezpośredni lub pośredni wpływ na szereg podstawowych praw i wolności, które nie ograniczają się tylko do prawa do prywatności i ochrony danych osobowych. Do owych praw należy m.in. przyrodzona ludzka godność, wolność przemieszczania się, czy wolność zgromadzeń. To zaś jest szczególnie istotne w obszarze ścigania przestępstw i wymiary sprawiedliwości. Ponadto, w konkluzjach ww. dokumentu EROD stwierdziła, że niektóre przypadki stosowania technologii rozpoznawania twarzy stwarzają nieakceptowalnie wysoki poziom ryzyka dla osób i dla społeczeństwa (tzw. czerwone linie), stąd EROD wraz z Europejskim Inspektorem Ochrony Danych Osobowych (ang. EDPS) wniosły o ich całkowity zakaz (od aut.: co ma być odzwierciedlone w projekcie AI ACT).

system identyfikacji śladów linii papilarnych

W praktyce kryminalistycznej na co dzień wykorzystywany jest także system AFIS (Automatyczny System Identyfikacji Daktyloskopijnej) mający na celu identyfikację śladów linii papilarnych na miejscu zdarzenia, porównanych ze śladami ujawnionymi w bazie danych. System ten jest algorytmem wyszukującym wyłącznie w obrębie uprzednio wprowadzonych do bazy śladów daktyloskopijnych. System ten dokonuje zautomatyzowanej analizy danych i przeglądania minucji (charakterystycznych cech linii papilarnych) celem znalezienia tzw. match’a.

Algorytmy te mają na celu zapewnienie bezpieczeństwa, wsparcie oraz wzmocnienie kontroli granicznych, ułatwienie identyfikacji podejrzanego, a nawet usprawnienie poszukiwania uprowadzonych osób[10]. Ponadto wskazuje się, że sztuczna inteligencja otwiera szereg możliwości w skutecznej walce z określonymi kategoriami przestępstw, np. w zakresie prania pieniędzy, finansowania terroryzmu czy przestępstw w cyberprzestrzeni[11].

granice AI

Pomimo korzyści wynikających z wykorzystywania sztucznej inteligencji w wymiarze sprawiedliwości podnoszone są także argumenty krytyczne, w szczególności dotyczące naruszenia dóbr osobistych: prawa do życia prywatnego, wolności zgromadzeń i prawa do zrzeszania się.

Konieczne jest zakreślenie granic i kryteriów jakie powinny spełniać algorytmy, by być dopuszczone do wykorzystania w kryminalistyce. Podpowiedzi nasuwa nienormatywny akt Unii Europejskiej wspomniana wcześniej Rezolucja Parlamentu Europejskiego w sprawie sztucznej inteligencji w prawie karnym i jej stosowania przez policję i organy wymiaru sprawiedliwości w sprawach karnych[12] uwzględniająca m.in.:

  • Komunikat Komisji z 8 kwietnia 2019 r. pt. „Budowanie zaufania do sztucznej inteligencji ukierunkowanej na człowieka” (COM(2019)0168),
  • Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji (AI) opublikowane przez grupę ekspertów wysokiego szczebla Komisji ds. AI w dniu 8 kwietnia 2019 r.,
  • Białą Księgę Komisji z 19 lutego 2020 r. w sprawie sztucznej inteligencji – „Europejskie podejście do doskonałości i zaufania” (COM(2020)0065).

W rezolucji wskazano na konieczność przestrzegania przez państwa członkowskie wszelkich regulacji związanych z ochroną danych osobowych wprowadzoną w Unii Europejskiej, a także standardów w zakresie ścigania przestępstw, które mają mieć adekwatne zastosowanie do sztucznej inteligencji. Podkreślono nadrzędność godności człowieka i zasad niedyskryminacyjnego traktowania, a także podstawowych zasad postępowania karnego tj.: domniemania niewinności, prawa do obrony, w tym do zachowania milczenia.

W związku z tym, stwierdza się, że w przypadku sztucznej inteligencji wykorzystywanej przez wymiar sprawiedliwości powinna ona być co najmniej bezpieczna, rzetelna, adekwatna do celów wykrycia sprawcy, zgodna z zasadami sprawiedliwości, jak i podlegać ocenie ryzyka, testowi konieczności i proporcjonalności. Systemy AI, ze względu na potencjalne ich wykorzystanie sprzeczne z założeniami, w szczególności do celów masowej, przekraczającej granice moralne inwigilacji społeczeństwa, powinny być poddawane stałej kontroli i nadzorowi technologicznemu.

W Rezolucji podkreśla się, że prognozowanie przestępczości może analizować dane zbiory danych w celu określenia schematów i korelacji, nie może jednak odpowiedzieć na pytanie o przyczynowość i nie może wiarygodnie prognozować indywidualnych zachowań, a zatem nie może stanowić jedynej podstawy interwencji. Podaje się przykład kilku miast w Stanach Zjednoczonych – w których po przeprowadzeniu audytów – zaprzestano stosowania systemów prognozowania przestępczości z powodu dyskryminującego wpływu i nieskuteczności tych systemów.

zakazy dla sztucznej inteligencji w AI ACT

Tworzony właśnie AI ACT ma na celu wprowadzenie przełomowych granic dla systemów sztucznej inteligencji. Projekt nowego prawa wymienia m.in. rodzaje systemów AI, które nie będą mogły być używane przez organy państwa do celów zwalczania przestępczości.

Rozporządzenie wprowadzi m.in. zakaz systemów sztucznej inteligencji wykorzystywanych przez organy publiczne w związku z oceną wiarygodności osób na podstawie zachowań społecznych i cech osobistych, która może spowodować krzywdzące traktowanie osób niezwiązanych z pierwotnie generowanymi danymi lub nieproporcjonalne do ich postępowania.

Po poprawkach wprowadzonych przez Parlament Europejski, zakazane mają być także:

  • systemy zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w miejscach publicznie dostępnych;
  • wykorzystywanie w przestrzeni publicznej systemów zdalnej identyfikacji biometrycznej post-factum, z jednym wyjątkiem, dotyczącym ścigania poważnych przestępstw, z uprzednią autoryzacją sądu
  • systemy kategoryzacji biometrycznej wykorzystujące cechy wrażliwe (np. płeć, rasę, pochodzenie etniczne, obywatelstwo, religię, orientację polityczną);
  • predykcyjne systemy policyjne (oparte na profilowaniu, lokalizacji lub przeszłych zachowaniach przestępczych);
  • systemy rozpoznawania emocji wykorzystywane przez organy ścigania, służby graniczne, miejsca pracy i instytucje edukacyjne;
  • nieukierunkowane pobieranie obrazów twarzy z Internetu lub nagrań telewizji przemysłowej do tworzenia baz danych rozpoznawania twarzy.

ograniczenia w AI ACT – systemy AI wysokiego ryzyka

Z kolei do systemów AI wysokiego ryzyka mają należeć m.in. następujące modele związane z działaniem organu ścigania:

  • systemy wykorzystywane do wyciągania wniosków o cechach osobowych osób fizycznych na podstawie danych biometrycznych lub danych opartych na biometrii, w tym systemy rozpoznawania emocji (z wyjątkiem zakazanych systemów AI rozpoznających emocje)
  • systemy przeznaczone do oceny i klasyfikacji zgłoszeń alarmowych dokonywanych przez osoby fizyczne lub do wykorzystania w celu wysyłania lub ustalania priorytetów w wysyłaniu służb ratunkowych w sytuacjach kryzysowych, w tym policji i organów ścigania, straży pożarnej i pomocy medycznej, a także systemów oceny stanu zdrowia pacjentów w nagłych wypadkach;
  • systemy przeznaczone do wykorzystania przez organy ścigania jako poligrafy i podobne narzędzia;
  • systemy przeznaczone do wykorzystania przez organy ścigania w ocenie wiarygodności dowodów w toku ścigania przestępstw lub prowadzenia dochodzeń w ich sprawie
  • modele przeznaczone do wykorzystania przez organy ścigania w celu profilowania osób fizycznych, w toku wykrywania i ścigania przestępstw lub prowadzenia dochodzeń w ich sprawie

możliwe zagrożenia ze strony AI

Ryzyko tzw. wycieku danych jest prawdopodobnie jednym z największych zagrożeń jakie niesie za sobą sztuczna inteligencja. Ze względu na dominującą pozycję organów ścigania względem obywatela w związku z wykorzystywaniem przez nie systemów AI o celów kryminalistycznych, mówi się o bezwzględnym i pierwszorzędnym obowiązku władzy, by zapobiegać potencjalnym „zamachom”. Zabezpieczenia mają być na tyle solidne i odporne, by zniwelować konsekwencje ataków na bazy danych czy niekontrolowanych wycieków danych.

Parlament Europejski w w/w rezolucji mimo to dostrzega, że w przypadku zaistnienia negatywnego skutku korzystania z AI powstaje problem z przypisaniem odpowiedzialności materialnej, jak i procesowej. Podnosi się, że w obszarze ścigania przestępstw, w przypadku decyzji podejmowanych przy wsparciu AI odpowiedzialność musi być zawsze przypisana osobie fizycznej lub prawnej, która musi być zindywidualizowanym podmiotem. W związku z tym, konieczne jest zapewnienie właściwych struktur organizacyjnych w podmiotach tworzących, jak i zarządzających taką sztuczną inteligencją.

Nie wskazano konkretnie, któremu z tych podmiotów powinno się przypisać odpowiedzialność. Dlatego wydaje się, że obie te grupy uczestników rynku są zobowiązane do zachowania należytej staranności przy tworzeniu i następnym wykorzystywaniu systemu AI. Wskazuje się, że gdyby twórcę systemu AI całkowicie zwolnić z odpowiedzialności, mogłoby to spowodować mniejszą motywację tego podmiotu do tworzenia rzetelnego produktu lub usługi. Co więcej, mogłoby to negatywnie wpłynąć na zaufanie społeczeństwa do stosowanej technologii[13].

sztuczna inteligencja, a błąd

Sztuczna inteligencja, tak jak wszelkie wytwory tego typu, pomimo wysokiego czynnika sprawdzalności, nie jest nieomylna. Skutkuje to powstawaniem błędów w identyfikacji i klasyfikacji osób, w szczególności przy rozpoznawaniu twarzy – gdy np. system pomyli się i wskaże niewłaściwą osobę o zbliżonym wizerunku czy kolorze skóry do osoby poszukiwanej- co może pogłębiać kontrowersje i uprzedzenia społeczne. Dlatego postuluje się korzystanie z systemów przez organy władzy publicznej w sposób proporcjonalny i tylko dla koniecznych celów.

Systemy rozpoznawania twarzy oraz te wykorzystywane w daktyloskopii są oparte na algorytmie wyszukiwania i optymalizacji. Oznacza to, że ich baza danych biometrycznych nie ma tendencji do samorozwoju, a ogranicza się do limitów ustalonych przez władze publiczne. Fakt istnienia wątpliwości i obaw społecznych przy systemach w pełni kontrolowanym przez służby państwowe potwierdza tylko potencjalny negatywny odbiór przez obywateli w przypadku wprowadzenia metody opartej na automatycznej analizie działań ludzi np. w Internecie.

sztuczna inteligencja, a postępowanie karne

Generowanie szybkich i w większości rzetelnych wyników przez systemy AI nie może zastępować „myślenia ludzi”. Sztuczna inteligencja często ma wbudowany system dążenia do niezawodności, który oznacza: jeśli nie wiem, to stworzę tak, żeby wiedzieć. Powoduje to, w szczególności w systemach bazujących na rozumowaniu, “wymyślanie” przez program informacji, które nie mają pokrycia w rzeczywistości.

Konsekwencją tego jest nieufność postępowania karnego do wprowadzania nowych technologii jako metod kryminalistycznych. Art. 192a i 199a Kodeksu postępowania karnego[14] nie wskazują konkretnych metod pobrania, a następnie weryfikacji śladów i ich wartości dowodowej, w celu ograniczenia kręgu osób podejrzanych. Ustawodawca, nie wskazując z nazw konkretnych urządzeń i technik dozwolonych do wykorzystania przez biegłych, w zasadzie pozostawił otwartą furtkę dla nowych technologii i ich wprowadzenia do procesu karnego[15]. Jednakże, to sądy, nie biegli, decydują o dopuszczeniu dowodu w postępowaniu, a co za tym idzie, to do nich należy decyzja, czy innowacyjna technologia przyjmie się w postępowaniu karnym. Zrozumiałe jest, że w związku z istniejącymi wątpliwościami co do wiarygodności i sprawdzalności sztucznej inteligencji, sądy są i zapewne będą w tym zakresie wyjątkowo ostrożne.

Konserwatyzm i brak zaufania do nowych metod wynika z ogromnej odpowiedzialności organów procesowych. Z jednej strony, wydaje się całkowicie uzasadnione dążenie organów do zniwelowania przewlekłości postępowania przygotowawczego i sądowego poprzez wykorzystanie nowych technologii. Z drugiej jednak strony ich jednoczesna ostrożność i wstrzemięźliwość powoduje wydłużenie procesu wdrażania tych technik, ze względu na nieukształtowaną teorię prawa jak i praktykę kryminalistyczną[16].

podsumowując

Wydaje się, że głównymi czynnikami, na które powinno się zwracać uwagę przy zastosowaniu sztucznej inteligencji to nieprzekroczenie granic sfery prywatnej, a tym samym nienaruszenie równowagi pomiędzy porządkiem publicznym, a ochroną prawa do życia prywatnego, zakreślenie granic dozwolonego zastosowania sztucznej inteligencji, w tym określenie kryteriów, jakie powinna spełniać. Niezwykle istotnym aspektem jest odpowiedzialność za powstałe szkody, czy nieintencjonalne błędy AI.

Właściwe będzie stwierdzenie, iż nowe technologie są przełomowym krokiem w dostarczaniu nowych źródeł poznania prawdy i stosowaniu prawa, które mogą zupełnie zmienić pracę organów ścigania. Natomiast z różnych przyczyn m.in. nieukształtowanej dotychczas praktyki stosowania tych metod, jak i raczkujących regulacji w tym zakresie, organy ścigania jak i wymiar sprawiedliwości reagują na nie ze znacznym opóźnieniem.

Photo by Immo Wegmann on Unsplash

[1] E. Gruza, M. Goc, J. Moszczyński, Kryminalistyka, czyli o współczesnych metodach dowodzenia przestępstw. Zagadnienia wybrane, Warszawa 2020, s. 19.
[2] M. Zubańska Kryminalistyka w dobie przyspieszenia naukowo-technicznego i technologicznych nadużyć – przytłaczająca wizja zmian czy inspiracja do rozwoju?. Studia Prawnoustrojowe 52, s.554.
[3] K. J. Hayward, M. M. Maas, Artificial intelligence and crime: A primer for criminologists, Crime Media Culture 2020, s. 9.
[4] Projekt rozporządzenia PE i Rady Ustanawiające Zharmonizowane Przepisy Dotyczące Sztucznej Inteligencji (Akt w Sprawie Sztucznej Inteligencji) i Zmieniające Niektóre Akty Ustawodawcze Unii (COM(2021)206).
[5] Coraz więcej jest kont w portalach społecznościowych generujących obrazy wirtualnych osób, tworząc przy tym historię ich życia. m.in. https://www.instagram.com/feli.airt/, dostęp 14.05.2023 r.
[6] Urząd Komunikacji Elektronicznej, Badanie konsumenckie 2020 https://www.uke.gov.pl/akt/badanie-konsumenckie-2020-klienci-indywidualni,374.html, dostęp: 14.05.2023 r.
[7] Konstytucja Rzeczypospolitej Polskiej z dnia 2 kwietnia 1997 r. (Dz. U. Nr 78, poz. 483 z późn. zm.).
[8] art. 17 Międzynarodowego paktu ochrony praw obywatelskich i politycznych z dnia 19 grudnia 1966 r. (Dz.U. z 1977 r., Nr 38, poz. 167), art. 8 Europejskiej konwencji praw człowieka i podstawowych wolności z dnia 4 listopada 1950 r. (Dz.U. z 1993 r., Nr 61, poz. 284).
[9] A. Podemska, Kryminalistyczne fenotypowanie DNA w Polsce, „Ius et Administratio 2017, nr 1, s. 37.
[10] G. Matuszek, Kryminalistyczne wykorzystywanie zapisów monitoringu wizyjnego na przykładzie Laboratorium Kryminalistycznego KWP w Katowicach, „Zeszyty Naukowe Państwowej Wyższej Szkoły Zawodowej im. Witelona w Legnicy 2019, nr 33(4), s. 88.
[11] K. Juszka, K.D. Dziedzic. “Kontrowersyjne nowe technologie w kryminalistyce”. Studia Prawnoustrojowe 55:103-116.
[12] Rezolucja Parlamentu Europejskiego z dnia 6 października 2021 r. w sprawie sztucznej inteligencji w prawie karnym i jej stosowania przez policję i organy wymiaru sprawiedliwości w sprawach karnych (2020/2016(INI)).
[13] https://www.europarl.europa.eu/news/pl/headlines/society/20200918STO87404/sztuczna-inteligencja-szanse-i-zagrozenia, dostęp 15.05.2023 r.
[14] Ustawa z dnia 6 czerwca 1997 r. Kodeks postępowania karnego (t.j. Dz. U. z 2022 r. poz. 1375 z późn. zm.).
[15] Kazimiera Juszka, Karolina Dominika Dziedzic. “Kontrowersyjne nowe technologie (…).
[16] Przemysław Knut, Recenzja M. Zubańska, Nowe technologie w kryminalistyce. Aspekty prawne i kryminalistyczne. Pracownia Wydawnicza „ElSet”. Olsztyn 2019, s. 246, https://doi.org/10.34836/pk.2020.307.4, dostęp 15.05.2023 r.
Udostępnij