Afera podsłuchowa ma dalszy ciąg – na dwa tygodnie przed jesiennymi wyborami do sieci wyciekają kolejne nagrania z premierem Mateuszem Morawieckim. Kompromitujące wypowiedzi osiągają milionowe zasięgi. Wybucha skandal, opozycja wzywa premiera do dymisji. Tymczasem materiały okazują się deepfake'ami – fałszywkami wyprodukowanymi z wykorzystaniem sztucznej inteligencji. To scenariusz wymyślony, ale wcale nie niemożliwy.
Tak jak możliwe stało się stworzenie wersji słynnego horroru "Lśnienie", w którym zamiast Jacka Nicholsona występuje ... Jim Carrey. A konkretnie jego postać nałożona przez speców od najnowszych technologii. Jakość jest na tyle dobra, że trudno zorientować się, iż to manipulacja.
Pierwsze deepfake, które pojawiły się pod koniec 2017 roku, wmontowywały twarze sławnych osób w firmy porno. W kwietniu 2018 roku serwis Buzzfeed stworzył przykład politycznego deepfake'u - wideo, w którym Barack Obama nazywa prezydenta Donalda Trumpa głupkiem. W rzeczywistości zdania wypowiadał reżyser Jordan Peele, a postać Obamy była wygenerowana na podstawie istniejących nagrań. Eksperyment pokazywał, jak technologia sztucznej inteligencji może namieszać w polityce.
Od tego czasu politycy straszą się deepfake'ami. Komentatorzy rok temu przewidywali wysyp deepfake przy okazji wyborów do amerykańskiego Kongresu na jesieni 2018 roku, czy do Parlamentu Europejskiego na wiosnę 2019 roku. Tak się nie stało. Obecnie obstawiają, że twórcy deepfake'ów czekają na amerykańskie wybory prezydenckie w 2020 roku. Cierpliwie udoskonalają technologie, trzymając asy w rękawie.
Dlaczego poświęcamy deepfake'om tyle uwagi? Nie może być inaczej, gdy spotykają się dwa kluczowe trendy związane z technologiami cyfrowymi: rozwój sztucznej inteligencji i dezinformacja w sieci. Do tego chodzi o nasze twarze. Tak cenne w epoce selfie wizerunki stały się polem doświadczalnym dla cyfrowych eksperymentów. Deepfaki ogniskują jak w soczewce wszystkie nasze lęki i fascynacje związane ze sztuczną inteligencją. Stawiają pytanie: czy możemy ufać przekazom medialnym? Czy polityka będzie jeszcze bardziej sztuczna?
Deepfake AD 2019
Niemal każdy trend technologiczny przechodzi fazę, w której debata medialna wyprzedza realną zmianę. Tak też jest z deepfake'ami. Czekam więc ciągle na "pacjenta zero" epidemii fałszywek - film, który spowoduje realne szkody polityczne. Najważniejszą zmianą, jaka zaszła w tym roku, są pierwsze sygnały, że państwa będą regulować deepfaki. Swoje polityki wobec fałszywek wypracowują też platformy internetowe takie jak Facebook. Bo deepfake nie przeżyłyby bez serwisów społecznościowych, które umożliwiają ich rozprzestrzenianie na masową skalę, przy jednoczesnym braku odpowiednich mechanizmów weryfikacji treści.
Według raportu organizacji Witness choć deepfaki nie są ciągle powszechne, to technologia ich tworzenia rozwija się gwałtownie. Rośnie ich jakość - czyli realizm. Potrzeba też coraz mniej materiału źródłowego do ich produkcji. Do niedawna potrzeba było kilkudziesięciominutowego nagrania - najnowszy projekt Samsunga tworzy deepfake na podstawie jednego zdjęcia lub obrazu. Jako pierwszą badacze zdeepfake'owali Mona Lisę.
Opublikowana miesiąc temu prezentacja zespołu naukowców z uniwersytetów Princeton, Stanforda, Max Planck Institute for Informatics oraz Adobe Research pokazuje narzędzie, które na żywo generuje obraz na podstawie wpisanego tekstu. Wystarczy ten tekst zmienić, a animowana głowa zaczyna mówić co innego.
Firma Adobe od kilku lat prezentuje prototypy programu VoCo, który ma umożliwić edytowanie i modyfikowanie wideo w sposób tak prosty, jak dziś edytujemy zwykłe grafiki. Wszystkie te programy tworzą bazę podstawowych dźwięków i wyrazów twarzy, z których potem można komponować przekaz wideo. Adobe sugeruje, ze któregoś dnia takie oprogramowanie trafi pod strzechy, demokratyzując możliwość tworzenia deepfake'ów.
Badacze, niczym uczniowie szalonego czarodzieja, zdają się nie oglądać na medialną wrzawę i nie całkiem przejmować zagrożeniami. Analiza wyzwań etycznych, przygotowana w ramach wspomnianego powyżej projektu, jest ciekawą lekturą. Można by się spodziewać, że napiszą wprost o zagrożeniach politycznych niesionych przez deepfaki. Tymczasem zaczyna się zupełnie niewinnie: "nasze podejście tworzy podwaliny lepszych narzędzi do montażu filmu w procesie postprodukcji". Czytamy też, że edytor może służyć na przykład do dostosowania bajek do różnych grup wiekowych. "Nasze narzędzie zostało stworzone na potrzeby storytellingu" - dodają.
Dopiero później stwierdzają, że są świadomi zagrożeń i martwi ich możliwość nadużyć. To oczywiście precyzyjnie wyważony język, który ma ochronić projekt badawczy przed zakusami regulatorów, którzy chętnie ucięliby głowę deepfake'owej hydrze. Do pewnego stopnia badacze mają też rację, bo stosowane w deepfake'ach algorytmy mają wiele innych zastosowań, niż tylko wkładanie bzdur w usta Baracka Obamy.
Ostrzeżenie czy tylko hype?
Na początku roku organizacja non-profit OpenAI ogłosiła, że stworzyła generator tekstu o nazwie GPT2, który potrafi tworzyć "tekstowe deepfaki". Automat rzekomo tworzy teksty tak realistyczne, że organizacja podjęła decyzję o nieudostępnianiu tego programu (mimo obowiązywania zasady dzielenia się wiedzą).
Powodem było ryzyko wykorzystania systemu do automatycznego tworzenia dezinformacji na masową skalę. Misją OpenAI jest tworzenie "bezpiecznej sztucznej inteligencji", jej pracownicy podchodzą więc dużo poważniej do wyzwań AI, niż inni badacze tworzący narzędzia do deepfake'ów.
Wielu komentatorów oskarżyło OpenAI o tzw. hype - prowadzenie komunikacji przerysowanej, nakierowanej jedynie na przyciąganie uwagi. (Hype to choroba zawodowa firm i komentatorów ze świata nowych technologii, w którym wszystko musi być nowe i niesamowite). Okazuje się jednak, że OpenAI świadomie zagrała na emocjach, by sprowokować dyskusję o odpowiedzialności związanej z narzędziami tworzącymi różne rodzaje deepfake'ów.
Jak się teraz okazuje, pytania o odpowiedzialność i regulację deepfake'ów były jak najbardziej na miejscu. Kilka miesięcy później rozpoczęła się debata polityczna o regulacji deepfake'ów.
Deepfake'owy sezon ogórkowy i cheapfake
Można było się spodziewać, że reakcję rządów sprowokuje deepfake nowej generacji - jeszcze bardziej realistyczny, zasilany nowymi rozwiązaniami AI. I faktycznie, w maju pojawiła się fałszywka z Nancy Pelosi, spikerką Izby Reprezentantów USA z Partii Demokratycznej. Na krążącym po sieci nagraniu widać, jak Pelosi zachowuje się dziwnie podczas wystąpienia. Mówi niewyraźnie i powoli, jakby była pijana lub chora.
Film jest faktycznie spreparowany, ale nie zastosowano w tym celu zaawansowanych rozwiązań. Efekt osiągnięto, spowalniając nagranie o 20 procent - to funkcja dostępna nawet w najprostszych, darmowych programach do edycji wideo. Joan Donovan i Britt Paris z instytutu Data & Society zaproponowali nazwę "cheapfakes" (tanie fałszywki). Argumentują, że nieważne, czy coś jest "deep" albo "cheap", o ile jest "fake".
"Pijana Nancy Pelosi" pokazuje, że problemem jest nie tylko technologia. Wzrost dezinformacji wynika także z tego, jak działają sieci społecznościowe - premiujące dowolne treści, o ile zapewniają wiralny zasięg i generują zysk z reklam. Winni jesteśmy także my - użytkownicy, klikający "udostępnij". Filmik z Pelosi był cynicznie udostępniany przez prezydenta Donalda Trumpa i innych republikańskich polityków.
Kontrofensywa regulacyjna
Miesiąc temu w Kongresie USA odbyło się posiedzenie poświęcone deepfake'om. Członkini Kongresu Yvette Clarke przedłożyła propozycję ustawy Deepfake Accountability Act (Prawo o odpowiedzialności za deepfake). Coś jest na rzeczy, skoro termin "deepfake" pojawia się w samej nazwie regulacji.
Ustawa zakłada, po pierwsze, że materiały deepfake będą musiały być oznaczane znakami wodnymi, identyfikującymi materiał jako fałszywkę. Takie rozwiązanie proponują też badacze pracujący nad opisaną wcześniej technologią deepfake. Jednak zdaniem ekspertów znakowanie nie będzie nigdy wystarczające - przede wszystkim dlatego, że są sposoby usuwania znaków wodnych.
Clarke proponuje dodatkowo, by platformy internetowe wdrażały rozwiązania rozpoznające zmanipulowane nagrania. Jednak najważniejszy - i potencjalnie najbardziej skuteczny - jest trzeci punkt proponowanej ustawy, przewidujący kary za ich tworzenie (mowa zarówno o karach finansowych, jak i nawet karze więzienia).
Jak na razie nowe propozycje legislacyjne nie nabierają rozpędu. Sama Clarke przyznaje, że złożyła projekt głównie po to, by sprowokować dyskusję nad deepfake'ami. A wielu ekspertów bardziej niż na rozwiązania prawne liczy na serwisy społecznościowe. Ich wielką przewagą jest bowiem zwinność.
Podczas gdy akty prawne muszą przejść długi proces legislacyjny, prywatne firmy mogą wdrożyć zmiany z dnia na dzień. Mało to demokratyczne, ale brzmi zachęcająco z punktu widzenia walki z patologicznymi zjawiskami w sieci. To dlatego Brooke Binkowski z fact-checkingowego serwisu Truth or Fiction twierdzi, że prawdziwym sposobem rozwiązania problemu deepfake'ów jest zmiana polityk platform i osłabienie mechanizmów, które dziś premiują treści wiralne - nawet gdy są fejkami.
Facebook reaguje na fałszywkę Zuckerberga
Zbiegiem okoliczności, Facebook ma dobry powód, by zająć się deepfake'ami - w tym samym czasie co zwolnione nagranie z Pelosi, pojawiła się fałszywka z udziałem Marka Zuckerberga. W filmie opublikowanym na Instagramie widać, jak krytykuje on Facebooka za okradanie milionów osób z ich danych. Film jest projektem artystycznym, który powstał w ramach wystawy Spectre, towarzyszącej festiwalowi filmowemu Sheffield Doc.
Firma zaskoczyła wiele osób decydując, by nie usuwać zarówno tego wideo, jak i "pijanej Nancy Pelosi". Jeśli więc twórcy fałszywego Zuckerberga chcieli go sprowokować do bardziej agresywnych działań wobec deepfake'ów, to taktyka ta zawiodła. Powołano się na brak przepisów w regulaminie firmowym, które zakazywałyby publikowania treści nieprawdziwych. Deepfake nie naruszają żadnych istotnych zasad dotyczących na przykład mowy nienawiści czy pokazywania przemocy. Firma proponuje więc, by jedynie oznaczać deepfaki jako nieprawdziwe i redukować ich widoczność (poprzez odpowiednie dostosowanie algorytmów rekomendujących).
Alexios Mantzarlis, badacz zajmujący się dezinformacją, porównuje proces regulacji deepfake'ów do operacji na żywym pacjencie. Wszelkie zmiany w regulaminach platform mają natychmiastowy wpływ na globalne obiegi informacji. Słusznie zwraca uwagę, że wypracowanie odpowiedniego podejścia wymaga więcej czasu i namysłu. Z jednej strony mamy ryzyko zanieczyszczania sieci fałszywą informacją, z drugiej - ryzyko wprowadzenia cenzury.
Deepfake'ów nie można też analizować w izolacji od szerszego tematu dezinformacji, przybierającej najróżniejsze formy. Czasem sprawa jest jasna – jak w przypadku masakry w Christchurch. Zamachowiec zamordował wtedy 49 osób, transmitując masakrę na żywo na Facebooku. Było wówczas oczywiste, że nagrania należy natychmiast zdjąć, a serwisy rozliczano z każdej minuty. Czasem treści nie naruszają wprost przepisów prawa i wówczas wypracowanie odpowiednich zasad jest dużo trudniejsze – tak jak w przypadku deepfake'ów czy patostreamów, o których trwa teraz w Polsce debata.
Ważnym elementem kontrofensywy mogą też być rozwiązania technologiczne. Rosnąca liczba startupów pracuje nad rozwiązaniami wykrywającymi deepfaki. Jednak zdaniem Hany Farid, profesor informatyki z Uniwersytetu Kalifornii, na każdego badacza zwalczającego deepfaki przypada 100 osób rozwijających te technologie. W świecie technologii chęć przekraczania kolejnych granic jest silniejsza niż potrzeba zrównoważonego rozwoju.
Deepfake a sprawa polska
Odpowiedzialność serwisów społecznościowych za publikowane treści, w tym deepfaki, będzie w najbliższym roku jednym z najważniejszych tematów związanych z regulacją nowych technologii. Pytanie tylko, czy skostniałe procesy legislacyjne albo nieprzejrzyste decyzje szefów korporacji pozwolą wypracować rozsądne rozwiązania redukujące wpływ deepfake i dezinformację.
Technologie są jak dżinn. Raz uwolnione z butelki nie dają się łatwo zamknąć. Będziemy więc mieć coraz częściej do czynienia z deepfake'ami. Dotychczasowe przykłady, poruszające opinię publiczną, dotyczą wyłącznie polityków i gwiazd popkultury. Któregoś dnia jednak deepfaki "wejdą pod strzechy" – dziennikarka Beata Biel rok temu zremiksowała twarze Melanie Trump i swoją za pomocą darmowej apki.
Dzisiejsze deepfaki są więc tylko zapowiedzią czasów, w którym "syntetyczne media" - wygenerowane sztucznie treści - będą czymś powszednim. Przy czym nie musi być tak, że demokratyzacja deepfake spowoduje, iż nie będziemy mogli zaufać żadnemu wizerunkowi, żadnemu materiałowi wideo. Być może uda nam się oswoić tę technologię, wypracować odpowiednie normy i znaleźć pożyteczne zastosowania dla technologii "gadających głów".
Jak na razie wszystkie przykłady deepfake'ów pochodzą z zagranicy. Jestem przekonany, że dopiero fałszywka z twarzą polskiego polityka pozwoli nam podjąć poważną dyskusję o dezinformacji. Być może doczekamy się deepfake jeszcze w trakcie obecnej kampanii wyborczej. Jeśli ktoś się chce założyć, to przyjmuję zakłady na Twitterze.
Dr Alek Tarkowski jest socjologiem i prezesem Fundacji Centrum Cyfrowe. Od niemal dwóch dekad analizuje społeczny i kulturowy wpływ nowych technologii.