Zmiany legislacyjne nie nadążają za postępem technologicznym, z jakim mamy do czynienia na przestrzeni ostatnich kilkunastu lat i jego następstwami. Szczególnie Internet stał się miejscem, w którym naruszenia prawa zdarzają się niejako na porządku dziennym, z uwagi na zdolność wirusowego rozprzestrzeniania się treści[1]. Powszechnym zjawiskiem są memy internetowe, które łatwo ulegają mutacjom i różnego rodzaju przekształceniom, a ponadto są długowieczne[2].

Podobnym typem transferu informacji, ale znacznie bardziej niebezpieczniejszym, są “deepfake”.  Dlaczego deepfake może stanowić zagrożenie? Jakie skutki, dla pojedynczych osób i całych społeczeństw, mogą wywołać “deepfake”? Czy ich pojawienie się wymusza zmianę prawa?

Spis treści

Naszym zdaniem…

Małgorzata Gradek Lewandowska: Poprzednio ustaliłyśmy, że samo tworzenie deepfake a także ich dystrybuowanie może być zgodne z prawem (“Czy deepfake – face swap i face reenactment mieszczą się w prawach własności intelektualnej?“). Problem mógłby pojawić się wówczas, gdyby zmanipulowany materiał filmowy dostał się w niepowołane ręce. Można wyobrazić sobie zdestabilizowanie demokracji np. przez pokazanie przed dniem wyborów polityka zaangażowanego w działalność przestępczą albo przedstawienie żołnierza USA palącego Koran[3]. Potwierdzeniem realności takiej sytuacji, było wyemitowanie w Belgii w maju 2018 r. deepfake pokazującego Donalda Trumpa wzywającego USA do wycofania się z porozumienia klimatycznego z Paryża. Zamiarem belgijskiej partii Sp.a Party emitującej ten film, było przyciągnięcie uwagi widzów, a następnie przekierowanie ich do internetowej petycji wzywającej belgijski rząd do podjęcia pilniejszych działań na rzecz klimatu. Chociaż był to fałszywy film, niektórzy widzowie byli wstrząśnięci i żądali, aby partia potwierdziła oficjalnie, że nagranie było zmontowane[4]. Twórcy filmu powiedzieli później, że założyli, iż zła jakość deepfake wystarczy, aby widzowie byli przekonani o braku autentyczności: „z ruchów warg jasno wynika, że to nie była autentyczna przemowa Trumpa” – powiedział Politico rzecznik Sp.a Party.

A co w sytuacji, gdy podmiot dystrybuujący deepfake nie oznaczy fałszywego przekazu? Myślę tutaj o wojnie informacyjnej, szantażu politycznym, narzędziu propagandy czy wykorzystaniu deepfake do phishingu (oszustwa, w której przestępca podszywa się pod inną osobę lub instytucję w celu wyłudzenia poufnych informacji).

 

Anna Maślanka: Właśnie. W połowie lutego br. na WhatsApp pojawił się film Manoj Tiwari, prezydenta Indii Bharatiya Janata Party. W filmie Tiwari przemawia przekonująco w języku haryanvi, dialekcie hindi używanym przez jego potencjalnych wyborców. Wideo jest fałszywe: w oryginalnym nagraniu Tiwari mówi po angielsku. Jest to kolejny przykład tego jak partia polityczna wykorzystała technologię deepfake do celów politycznych.

 

Anna Dębska: Takie sytuacje miały miejsce od dawna. Co prawda bez wykorzystania warstwy wizualnej, ale oszustwa poprzez stworzenie nagrania imitującego głos innej osoby, nie są zarezerwowane jedyne dla sfery twórczości fikcyjnej. Dla przykładu: w 2019 r. dyrektor pewnej brytyjskiej firmy z branży energetyki dokonał przelewu na ponad 200 tys. euro po tym, jak otrzymał telefon od osoby rzekomo zarządzającej spółką nadrzędną (spółką-matką). Z relacji The Wall Street Journal wynika, że dyrektor został poproszony o pilne przesłanie pieniędzy do węgierskiego dostawcy[5]. Ofiara zdarzenia twierdzi, że głos był identyczny. Zawierał nawet delikatny niemiecki akcent oraz intonacje charakterystyczną dla tej osoby. W tym przypadku, płatność z węgierskiego rachunku została natychmiast przelana do Meksyku i dalej. To ponoć pierwszy przypadek wykorzystania deepfake voice (speech synthesis) w celu popełnienia przestępstwa w Europie, ale patrząc na “udany” efekt, z pewności nie ostatni[6] Co więcej, pojawiają się już pierwsze ostrzeżenia przed nowym rodzajem wyłudzania „na wnuczka”, właśnie poprzez wykorzystywanie czyjegoś głosu i podszywanie się w ten sposób przez telefon pod bliską nam osobę w celu wyłudzenia pieniędzy.

 

MGL: Jakie więc środki prawne mają osoby, których dobra osobiste wykorzystano do stworzenia deepfake?

 

AD: Poza prawem autorskim, o którym mówiłyśmy poprzednio, kolejna regulacja, ściśle powiązana z deepfake-ami, to art. 23 i 24 kodeksu cywilnego. Na podstawie tych przepisów chronione są dobra osobiste człowieka. Ustawodawca wskazał katalog dóbr osobistych wyszczególniając dobra takie jak zdrowie, wolność, cześć, swoboda sumienia, nazwisko lub pseudonim, wizerunek, tajemnica korespondencji, nietykalność mieszkania, twórczość naukowa, artystyczna, wynalazcza i racjonalizatorska wskazując, iż nie jest to katalog zamknięty. Z deepfake-ami największy związek będzie miał wizerunek, ale również głos. Pomimo, że głos nie został wyszczególniony w art. 23 kodeksu cywilnego, to w orzecznictwie potwierdzono pogląd, że głos jest objęty ochroną kodeksową[7].

O tym, czy naruszenie dobra osobistego zostało istotnie dokonane, decyduje obiektywna ocena konkretnych okoliczności faktycznych, nie subiektywne odczucie osoby zainteresowanej. O bezprawności naruszenia zaś może być mowa wtedy, kiedy to cudze działanie narusza jakieś konkretne nakazy i zakazy. Oczywiście, w pojęciu bezprawności czynności nie mieszczą się natomiast omyłki, niedokładności, przeinaczenia i inne wadliwości ale pozbawione cech ocennych wobec określonej osoby[8].

Przy ochronie dobra osobistego jakim jest wizerunek, trzeba wrócić na chwilę do prawa autorskiego. Zgodnie z art. 81 prawa autorskiego, rozpowszechnianie wizerunku wymaga zezwolenia osoby na nim przedstawionej. Zezwolenia nie wymaga rozpowszechnianie wizerunku:

  • osoby powszechnie znanej, jeżeli wizerunek wykonano w związku z pełnieniem przez nią funkcji publicznych, w szczególności politycznych, społecznych, zawodowych;
  • osoby stanowiącej jedynie szczegół całości takiej jak zgromadzenie, krajobraz, publiczna impreza
  • osoby, która otrzymała umówioną zapłatę za pozowanie.

Można więc wyobrazić sobie, że twórcy deepfake będą powoływać się na powyższe wyjątki. Pytanie: czy faktycznie mogą? Jeśli przekroczą granice wyjątku uzyskania zgody na rozpowszechnianie wizerunku, to osoba, której to dobro osobiste zostało zagrożone czy naruszone poprzez wykorzystanie w deepfake może żądać zarówno na podstawie art. 83 i art. 78 ust. 1 prawa autorskiego jaki i art. 24 kodeksu cywilnego:

  • wstrzymania tego działania
  • ażeby osoba, która dopuściła się naruszenia, dopełniła czynności potrzebnych do usunięcia jego skutków, w szczególności ażeby złożyła oświadczenie odpowiedniej treści i w odpowiedniej formie;
  • zadośćuczynienia pieniężnego lub zapłaty odpowiedniej sumy pieniężnej na wskazany cel społeczny;
  • naprawienia szkody na zasadach ogólnych, jeżeli wskutek naruszenia dobra osobistego została wyrządzona szkoda majątkowa.

Wydaje się, że to te przepisy będą ochronić osoby, których wizerunek został wykorzystany w celu stworzenia deepfake. Trzeba jednak podkreślić, że aby móc uzyskać ewentualne odszkodowanie lub zadośćuczynienie trzeba wskazać osobę, która wyrządziła szkodę lub krzywdę. I to w przypadku twórców deepfake może być bardzo problematyczne.

AM: To, co potocznie nazywane jest naruszeniem prawa osobistego do wizerunku, w praktyce oznacza naruszenie innego dobra (czci, prywatności, kultu pamięci osoby zmarłej, “persony”), tyle, że za pośrednictwem wizerunku. Argument, który najprawdopodobniej może być wykorzystywany przez twórców deepfake-ów, czyli wspomniany wyjątek od uzyskania zezwolenia na rozpowszechnianie wizerunku osoby powszechnie znanej. Zezwolenie takie przysługuje tylko, gdy rozpowszechniamy wizerunek osoby powszechnie znanej utrwalony w związku z wykonywaniem przez nią swojej funkcji publicznej czy zawodowej. Każde inne utrwalenie i rozpowszechnienie wizerunku, także osób znanych, które nie powstało w związku z pełnieniem przez nich ich funkcji publicznych będzie naruszeniem ich prawa do prywatności.

Powstaje jednak pytanie, czy można mówić o takim naruszeniu względem polityka, którego wizerunek został wykorzystany do stworzenia fałszywego przemówienia politycznego? Nawet gdyby uznać, że w tym wypadku nie przekroczono granic prywatności, warto rozważyć, czy nie zostały naruszone inne dobra osobiste takiej osoby. Dobra osobiste stanowią wartości ściśle związane z osobą ludzką, w tym sensie, że ochrona tych dóbr jest ochroną szeroko rozumianej godności każdego człowieka. Naruszeniem tych dóbr, godności może być np. napastliwa krytyka kierowana w kierunku takiej osoby bezpośrednio, jak i narażenie jej na krytykę ze strony osób trzecich, które mogłyby uznać za prawdziwe takie nagranie. Także narażenie takiej osoby na utratę zaufania publicznego w związku z wykonywanym przez nią stanowiskiem będzie godzić w jej dobra osobiste, tym samym dając jej prawo do obrony przed takim bezprawnych zachowaniem. Właśnie na podstawie przepisów, o których mówiłyśmy.

MGL: Jak zatem mogą bronić się „ofiary” użycia deepfake-ów?

AD: Problem prawny deepfake-ów może być bardzo złożony. Za przykład może posłużyć przestępstwo oszustwa z art. 286 kodeksu karnego. Czyli: kto w celu osiągnięcia korzyści majątkowej, doprowadza inną osobę do niekorzystnego rozporządzenia własnym lub cudzym mieniem za pomocą wprowadzenia jej w błąd albo wyzyskania błędu lub niezdolności do należytego pojmowania przedsiębranego działania, podlega karze pozbawienia wolności od 6 miesięcy do lat 8. Nietrudno sobie wyobrazić stworzenie deepfake, w którym ktoś bliski prosi o pomoc, o pewną sumę pieniędzy, która jest mu niezwykle potrzebna, a Ty chcąc pomóc przesyłasz pieniądze na wskazany numer konta. W takim przypadku deepfake może stać się narzędziem do popełnienia oszustwa przez jego twórcę. Oczywiście, wymaga to zainicjowania postępowania karnego.

AM: Z pozoru wyglądające na niewinne żarty nagranie może doprowadzić do dokonania niekorzystnego dla nas oświadczenia, którego w innym wypadku nigdy byśmy nie złożyli, gdybyśmy tylko wiedzieli, że nagranie to nie jest prawdziwe. Może się zdarzyć, że nagranie będzie tak wiarygodne, że nawet znawcy tematu dadzą się nabrać na fałszywe oświadczenia. Możemy sobie np. wyobrazić, że twórca deepfake wykorzysta pozycję jakieś szanowanej osoby i posługując się jej wizerunkiem będzie namawiał do rozporządzenia swoim prawem lub dokonania innego oświadczenia, które będzie prowadziło do uszczuplenia majątku albo innych konsekwencji prawnych. W takiej sytuacji, osobie, która dała się nabrać na takie fałszywe nagranie przysługuje prawo uchylenia się od skutków oświadczeni woli złożonego pod wpływem błędu. W tym celu konieczne jest złożenie takiego oświadczenia w ciągu roku od momentu, w którym dowiedzieliśmy się o wprowadzeniu w błąd, drugiej stronie czynności prawnej (czyli np. komuś, komu przekazaliśmy jakąś kwotę pieniędzy, dokonaliśmy sprzedaży itp.)

MGL: Czy poza oszustwem skutkującym karną odpowiedzialnością i cywilnym skutkiem uchylenia się od oświadczenia złożonego pod wpływem błędu, deepfake może prowadzić do innych konsekwencji prawnych dla osoby, której wizerunek czy inne dobra osobiste zostały wykorzystane?

AM: Zdecydowanie deepfake może stwarzać zagrożenie dla renomy, wiarygodności, a także zagrożenie utraty zaufania wobec osoby publicznej, zwłaszcza sprawujące określone funkcje w państwie. Dobrze wiemy, że „społeczny lincz” może doprowadzić do upadku nawet całych grup i organizacji, a co dopiero jednostki. Niestety, raz naruszone zaufanie odbudowuje się czasami latami. Naruszenie w ten sposób wizerunku czy dóbr osobistych może wymusić na danej osobie np. ustąpienie z zajmowanego stanowiska ze względu na utratę wiarygodności. Technologia deepfake to ogromne narzędzie dla konkurencji, która dzięki niej może jednym nagraniem pogrążyć swoich konkurentów np. w trakcie kampanii wyborczych.

AD: Pamiętajmy, że o renomie i „wizerunku” możemy mówić też w przypadku osób prawnych, najczęściej przedsiębiorców. Istnieją korporacje, które latami budują swoją pozycję na rynku nie tylko poprzez świadczenie określonej jakości usługi i dostarczanie pożądanych produktów ale również poprzez tworzenie marki kojarzącej się za określonymi wartościami i atrybutami. Wyobrażam sobie, że wystarczyłby jeden świetnie przygotowany deepfake i możemy zacząć mówić o poważnym kryzysie danego przedsiębiorstwa. Cała seria przemyślanych deepfake-ów i za chwilę w mediach pojawia się informacja o wniosku o ogłoszenie upadłości, a przecież ktoś jednie zrobił sobie niewinny żart… Ale ten żart mógł być również świetnie przeprowadzaną kampanią konkurencyjnej firmy, która miała już dość uczciwej rywalizacji o klientów.

MGL: Może w takim razie należy szukać odpowiednich regulacji w innych przepisach karnych?

AD: Sięgając do przepisów kodeksu karnego można zastanowić się, czy w niektórych przypadkach stworzenie deepfake będzie wypełniało znamiona przestępstw przeciwko czci i nietykalności cielesnej takich jak zniesławienie i zniewaga.

Zniesławienie, stypizowane w art. 212 kodeksu karnego dotyczy pomawiania innej osoby, grupy osób, instytucji, osoby prawnej lub jednostki organizacyjnej niemającej osobowości prawnej o takie postępowanie lub właściwości, które mogą poniżyć ją w opinii publicznej lub narazić na utratę zaufania potrzebnego dla danego stanowiska, zawodu lub rodzaju działalności podlega grzywnie albo karze ograniczenia wolności. Jeżeli sprawca dopuszcza się czynu zniesławienia za pomocą środków masowego komunikowania, podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do roku. Analiza przepisu od razu nasuwa pytanie, czy stworzenie deepfake albo jego rozpowszechnianie może stanowić pomówienie. W związku z tym, że nie istnieje precyzyjna definicja pomówienia nie sposób przesądzić czy deepfake stanie się również formą pomówienia. Poprzez pomówienie można rozumieć przypisanie komuś w publicznej wypowiedzi cech, poglądów lub czynów, które psują mu dobrą opinię, powodują utratę zaufania do niego, a przecież to nie twórca deepfake wypowiada się publicznie…

W art. 216 kodeksu karnego określono przestępstwo zniewagi, czyli: kto znieważa inną osobę w jej obecności albo choćby pod jej nieobecność, lecz publicznie lub w zamiarze, aby zniewaga do osoby tej dotarła, podlega grzywnie albo karze ograniczenia wolności, także kto znieważa inną osobę za pomocą środków masowego komunikowania, podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do roku. Przestępstwo zniewagi przejawia się w ubliżaniu komuś słowem lub czynem i stanowi ciężką obrazę skierowaną przeciwko godności osobistej człowieka[9].

AM: Katalog sposobów popełnienia czynu znieważenia nie został określony, zatem można dojść do wniosku, że dotyczy to rozmaitego rodzaju zachowania, których wspólną cechą jest to, że wyrażają pogardę dla godności drugiego człowieka. Znieważające zachowanie może przybrać postać słowną (posłużenie się wulgarnym słownictwem), być wyrażone za pomocą rysunku (np. karykatura), symboli, znaków albo innego rodzaju środka przekazu (film, fotografia) czy też gestu, który wyraża brak szacunku wobec drugiej osoby.

Przyjmując, że deepfake to film stworzony przez jego twórcę, który poprzez dokonanie zamiany twarzy będzie wyrażał pogardę godności osoby, której twarz została „doklejona” można pokusić się o stwierdzenie, że przestępstwo zniewagi będzie w tym wypadku odpowiednie. Jednak nie jest pewne czy pogarda godności człowieka będzie miała charakter obiektywny, czy deepfake w większości przypadków pozostaną jedynie znieważające w ujęciu subiektywnym osoby, której wizerunek został w deepfake wykorzystany.

MGL: Ale kto w takim razie popełnia przestępstwo? Kto jest sprawcą? Czy samo stworzenie deepfake może być penalizowane czy raczej posługiwanie się takim filmem?

AM: Zgodnie z kodeksem karnym sprawcą jest ten kto popełnia czyn niedozwolony. Ustalenie, kto jest odpowiedzialny za efekt końcowy deepfake wymaga analizy i pogłębienia wiedzy na temat tego, kto jest twórcą. Problematyczne może być korzystanie przez twórcę z programu będącego dziełem innej osoby. Powstaje wtedy pytanie, czy twórca programu komputerowego zezwalającego na tworzenie deepfake-ów może odpowiadać jako współsprawca, podżegacz albo pomocnik przestępstwa? Zgodnie z kodeksem karnym odpowiada za pomocnictwo, kto w zamiarze, aby inna osoba dokonała czynu zabronionego, swoim zachowaniem ułatwia jego popełnienie, w szczególności dostarczając narzędzie, środek przewozu, udzielając rady lub informacji.

Na pewno odpowiedzialność będzie ponosić osoba, która intencjonalnie korzysta z deepfake, np. aby wymusić niekorzystne oświadczenie czy podjęcie decyzji pod wpływem treści deepfake. Czyli może być tak, ze deepfake jest tworzony dla żartu, ale jego użycie wymyka się spod kontroli twórcy i finalnie służy popełnieniu przestępstwa.

MGL: Jak zatem zapobiegać takim sytuacjom? Czy można jakoś zweryfikować czy dany film jest deepfake-m?

AD: Po pojawianiu się coraz doskonalszych deepfake-ów rozpoczęto projekty tworzenia programów wykrywających deepfake, które zajmują się oceną integralności zdjęć lub filmów, wykrywaniem manipulacji. Niestety ulepszanie oprogramowania do wykrywania deepfake-ów przyczynia się również do tworzenia coraz lepszych deepfake-ów. Innymi słowy programy uczą się od programów jak oszukiwać programy.

AM: Skoro aplikacje służące wykrywaniu fake newsów powodują, że stają się one jeszcze bardziej dopracowane nasuwa się myśl, by zawsze stosować zasadę ograniczonego zaufania. Żyjemy czasach, w których technologia idzie do przodu i nie pozostaje nam nic innego jak nauczenie się korzystania z niej. Wbrew pozorom, zaletą fake newsów może być zmniejszenie zaufania ludzi do treści znajdujących się w Internecie. Jeżeli dostajemy wiadomości z nieznanego źródła, zawsze warto jest je zweryfikować. Prawdopodobieństwo, że duży serwis przekazuje fałszywe treści jest dużo mniejsze, niż nikomu nie znany serwis, za którym nie stoi żaden człowiek. Być może przyczyni się to do polepszania relacji w prawdziwym świecie, gdyż zaczniemy doceniać możliwość namacalnego zetknięcia się z drugą osobą?

MGL: Jeśli szukamy pozytywnych sytuacji, to spróbujmy pokazać optymistyczne zastosowanie tej nowej technologii. Czy słyszałyście o przykładach wykorzystania deepfake w dobrym celu?

AM: Tak, na szczęście, technologia deepfake wykorzystywana jest także do innych celów niż tylko do popełniania przestępstw i wprowadzania celowo w błąd odbiorców. Studio badawcze należące do Disneya (Disney Research Studio), stworzyło swój własny algorytm pozwalający na w pełni automatyczną wymianę twarzy neuronowych w obrazach i filmach w wysokiej rozdzielczości, umożliwiające wykorzystanie na dużym ekranie. To czym różni się algorytm Disneya to zwiększanie liczby megapikseli dzięki czemu możliwe jest tworzenie filmów w rozdzielczości 1024 x 1024 pikseli czyli lepsza widoczność na większych ekranach. Disney koncentruje się na zapewnieniu stabilizacji obrazu oraz doborze oświetlenia na podstawie tła i obiektu głównego. Oczywiście, Studio jest zainteresowane tą technologią z komercyjnego względu. Stworzenie deepfake-owych postaci pozwoli na „przywrócenie na srebrny ekran aktorów, którzy zmarli bądź z powodu wieku lub choroby nie są w stanie zagrać w kolejnej części hitowej serii. Użycie wizerunku kultowego aktora w nowoczesnej produkcji mogłoby być także sposobem na oddanie mu hołdu i uczczenie jego kinowych dokonań[10]. Dzięki temu możliwe było dokończenie prawie gotowego filmu Gwiezdne wojny: Skywalker. Odrodzenie, po śmierci Carrie Fisher grającej księżniczkę Leię.  Przywracanie zmarłych aktorów do życia dla sequeli filmowych zostało nazwane jako „zmartwychwstanie cyfrowe”.

AD: Czasami deepfake służy do zabawy z widzami, np. wtedy gdy Jon Snow w końcu przeprosił za 8 sezon.

Są także pierwsze próby wykorzystania deepfake w szeroko rozumianej medycynie. Syntezator mowy Lyrebird.ai został wykorzystany do współpracy z organizacją charytatywną zajmującą się chorobami neuronu ruchowego. Współpraca polega na tworzeniu cyfrowych kopii głosów pacjentów w celu stworzenia sztucznego głosu – zamiennika, który ludzie będą mogli wykorzystać gdy utracą zdolność mówienia.[11]

Jednak pokusa wykorzystania fałszywej rzeczywistości do celów politycznych czy kryminalnych jest bardzo silna. Jeśli podstawowa technologia będzie się nadal rozwijać, czego należy się spodziewać, bariery techniczne w produkcji deepfake-ów znikną, a ich jakość ulegnie poprawie. Dlatego trzeba przygotować się na taką rzeczywistość.

The Wall Street Journal podobno utworzył 20-osobowy zespół Media Forensics Committee, który ma doradzać swoim dziennikarzom, jak rozpoznać sfałszowane materiały wideo i zaprosił naukowców do wygłoszenia prelekcji na temat najnowszych innowacji w deepfake screening.[13]. Jedna z form kryminalistyki mediów obejmuje badanie poszczególnych osób w materiale filmowym pod kątem pojawiających się niespójności fizjologicznych w sposobie, w jaki konstruowane są spreparowane filmy. Obejmuje to sprawdzenie, czy obiekty migają podczas nagrania oraz czy kolor i cienie na ich skórze wydają się migotać. Innym podejściem jest sprawdzenie akustyki filmu skorelowanej z nagrywaną sceną, na przykład z rozmiarem pomieszczenia lub obecnością ludzi w tle. Eksperci nadal nie są zgodni co do tego, czy kryminalistyka mediów jest zdolna do badania przesiewowego deepfake-ów. Narzędzie oparte na sztucznej inteligencji o nazwie FaceForensics zbadało zbiór danych zawierający pół miliona zmanipulowanych obrazów. Wykrywalność za jego pomocą jest zdecydowanie lepsza w porównaniu do ludzkich zespołów kryminalistycznych.[14]

Włączają się tez giganci internetowi. Google stworzył materiały dydaktyczne mające na celu wspieranie identyfikowania fałszywych wiadomości w Internecie, które można rozszerzyć o treści wizualne i dezinformacyjne audio[12]. Facebook niedawno ogłosił zamiar stworzenia i udostępnienia zbioru danych zsyntetyzowanych deepfake-ów dla ekspertów, którzy starają się udoskonalić swoje narzędzia do wykrywania deepfake. Także Facebook prowadzi na szeroką skalę weryfikację zamieszczanych materiałów. We wrześniu 2018 r. przedstawił autorską procedurę weryfikacji faktów na okładkach zdjęć i filmów obok tekstu[15]  Pomimo tych działań, Facebook ostatnio odmówił usunięcia wielu deepfake-ów argumentując pozostawienie ich prawem do nieszkodliwej satyry.

MGL: Kończąc naszą deepfake-ową rozmowę prawnym akcentem, warto wskazać próby legalizacji posługiwania się technologią deepfake. Wspomniana na początku naszej rozmowy, podjęta przez senat amerykański próba zakazania “preparowania nagrań audiowizualnych” znana jako “Malicious Deep Fake Prohibition Act of 2018”[16], nie tylko zawiera definicję „deepfake” podkreślającą oszukańczy charakter nagrania, ale przede wszystkim zakłada odpowiedzialność karną (grzywna czy kara pozbawienia wolności do 10 lat) za fakt stworzenia deepfake, z zamiarem rozpowszechniania, w celu popełnienia czynu karalnego czy innego deliktu. Projekt zakłada zwolnienie od odpowiedzialności „dostawców interaktywnych usług komputerowych” jeżeli podjęliby ograniczenia dostępu do nagrań deepfake.

Dalej idące propozycje, poza odpowiedzialnością karną, zawiera projekt “Deep Fakes Accountability Act”[17] zaproponowany w czerwcu br. przez reprezentantkę demokratów z Nowego Jorku Yvette Clarke. Według tego aktu, nagrania deepfake miałyby być rejestrowane w specjalnym rejestrze deepfake oraz wyraźnie oznaczone znakiem wodnym. Film powinien zawierać także oświadczenie pojawiające się na dole obrazu przez cały czas trwania nagrania wskazujące, że nagranie zawiera zmienione elementy dźwiękowe i wizualne oraz zwięzły opis zakresu takiej zmiany. Brak takich oznaczeń wiązałby się z zapłatą kary 150 000 USD. W przypadku braku oznaczenia, możliwe byłoby pociągniecie do odpowiedzialności karnej, przy czym odpowiedzialność byłaby zaostrzona, gdyby technologia deepfake została użyta:

  • „z zamiarem poniżenia lub innego nękania osoby fałszywie przedstawionej, pod warunkiem że zaawansowany technologicznie zapis fałszywego personifikacji zawiera treści seksualne o charakterze wizualnym i wydaje się, że taka osoba wykonuje takie czynności seksualne lub jest w stanie nagości”
  • „z zamiarem spowodowania przemocy lub krzywdy fizycznej, podżegania do konfliktu zbrojnego lub dyplomatycznego lub ingerencji w oficjalne postępowanie, w tym wybory, pod warunkiem, że zaawansowane technologicznie fałszywe dane personalne faktycznie stanowiły wiarygodną groźbę podżegania do takich”
  • „w trakcie postępowania karnego związanego z oszustwem, w tym oszustw związanych z papierami wartościowymi i oszustwami elektronicznymi, fałszywą personifikacją lub kradzieżą tożsamości”
  • „przez obce mocarstwo lub jego przedstawiciela, z zamiarem wywarcia wpływu na krajową debatę o polityce publicznej, ingerowania w wybory federalne, stanowe, lokalne lub terytorialne lub angażowania się w inne działania, których taka władza nie może zgodnie z prawem podjąć”.

Przestępstwa te, podlegałyby eksterytorialnej jurysdykcji federalnej, jeśli oskarżony lub przedstawiona w nagraniu osoba byłaby obywatelem lub stale zamieszkiwała w Stanach Zjednoczonych. Co bardzo ciekawe, tych zasad odpowiedzialności nie stosowałoby się do nagrań „wyprodukowanych przez urzędnika Stanów Zjednoczonych lub jego upoważnienia, w trosce o bezpieczeństwo publiczne lub bezpieczeństwo narodowe”.

Poza Stanami, także w ustawodawstwach europejskich podejmowane są próby uregulowania tworzenia i rozpowszechniania deepfake. W 2017 roku niemiecki rząd przyjął nowe prawo nakładające kary na firmy technologiczne, które zostały zobowiązane do usuwania treści rasistowskich lub zawierających groźby, w ciągu 24 godzin od zgłoszenia. Planuje się zastosowanie tych regulacji do deepfake-ów, ale krytycy twierdzą, że mogłoby to przynieść skutki odwrotne do zamierzonych i brak skuteczności, ponieważ trudno jest zidentyfikować twórców deepfake, z których wielu mieszka poza terenem Niemiec.

Szczególnie krytykowane są rozwiązania przyjęte w Singapurze, gdzie uchwalono przepisy pozwalające rządowi żądać od platform administrujących mediami społecznościowymi usunięcia treści, które uważa za fałszywe. Krytycy uważają, że te rozwiązania rząd będzie wykorzystywać do stłumienia wolność słowa pod hasłami walki z dezinformacją, co stanowić będzie „katastrofę dla wyrażania opinii online[18]

Propozycje legislacji ze Stanów w części przypominają nasze polskie przepisy w zakresie oznaczania lokowania produktów. Cel jest ten sam: poinformowanie widza, że oglądana scena to fake. W rzeczywistości być może „Killer” nie jeździ tylko samochodami Nissan, „Na Wspólnej” nie piją wyłącznie kawy Nescafe a serialowa Chyłka nie zajada się Ptasim Mleczkiem. Zgodnie z obowiązującym u nas przepisami, widz musi być poinformowany, że ktoś zapłacił, za to, aby konkretny produkt przemawiał do podświadomości oglądającego i zachęcał go do używania tego produktu bez oczywistej i otwartej reklamy… ale o lokowaniu napiszemy innym razem 🙂

Podsumowując, oczywiście deepfake wykorzystane do celów rozrywkowych pomagają realizować coraz to ciekawsze wizje twórców, w odpowiednich rękach mogą zdziałać wiele dobrego, jednak trafiając w te nieodpowiednie stają się zagrożeniem dla innych. Na pewno tworzenie deepfake mieści się w obowiązujących przepisach. Trudniej przypisać aktualne regulacje do skutków rozpowszechniania nagrań zawierających deepfake. Istotne jest to, w jaki sposób nagrania powstałe przy użyciu technologii deepfake będą wykorzystywane. W dalszej perspektywie korzystanie z nich będzie miało duży wpływ na ich unormowanie i to, czy ich wykorzystywanie będzie nadzorowane śladem amerykańskich propozycji.

Bez wątpienia, w najbliższej przyszłości deepfake radykalnie zmieni sposób, w jaki dowody nagrane na wideo będą postrzegane na salach sądowych i podczas innych postępowań spornych. I tego jako prawnicy powinnyśmy być świadomi.

P.S. Do pierwszej  części naszej rozmowy można przeskoczyć tu

Photo by Paul Zoetemeijer on Unsplash
[1] J.Sroka „Obrazkowe memy internetowe” Warszawa 2015 s. 35
[2] Na „wirusowość” w Internecie zwraca uwagę Ewelina Szabla w “Charakterystyka memów internetowych w kontekście wybranych zagadnień prawa autorskiego”, PME 2018, Nr 2
[3] Chesney, R. and Citron, D. (2019) Deepfakes and the new disinformation war. Foreign Affairs, styczeń/luty 2019
[4] Schwartz, O. (2018) You thought fake news was bad? deepfakes are where truth goes to die [article] The Guardian, 12 listopada 2018
[5] https://www.forbes.com/sites/jessedamiani/2019/09/03/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000/
[6] Źródło: https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402
[7] Wyrok Sądu Apelacyjnego w Gdańsku z dnia 21.06.1991 r. sygn. I ACr 127/91.
[8] Wyrok Sądu Apelacyjnego w Gdańsku z dnia 18.02.2020 r. sygn. V ACa 606/19.
[9] Uchwała Sądu Najwyższego z dnia 12.10.2017 r. sygn. SNO 32/17.
[10] https://www.focus.pl/artykul/disney-prezentuje-deepfake-w-megarozdzielczosci-wykorzysta-ja-na-duzym-ekranie
[11] https://lyrebird.ai/work
[12] Google’s Be Internet Citizens programme: https://internetcitizens.withyoutube.com/
[13] Southern, L. (2019) ‘A perfect storm’: The Wall Street Journal has 21 people ‘detecting’ deepfakes [article] Digiday, 1 lipca 2019.
[14] Rössler, A. et al. (2019) FaceForensics++: Learning to Detect Manipulated Face Images: https://arxiv.org/abs/1901.08971
[15] Woodford, A. (2018) Expanding Fact-Checking to Photos and Videos [article] Facebook Newsroom, 13 września 2018.
[16] https://www.congress.gov/bill/115th-congress/senate-bill/3805/text
[17] https://www.congress.gov/bill/116th-congress/house-bill/3230/text
[18] The Guardian (2019) Singapore fake news law a ‘disaster’ for freedom of speech, says rights group
Udostępnij