No jak pan Ben Parker powiedział? Z wielką mocą wiąże się wielka odpowiedzialność! Tymczasem wszyscy znaleźliśmy się w sytuacji, gdy wielka moc technologii jest wykorzystywana jako broń do zacierania granic rzeczywistości. A u despotycznego agresora próżno szukać przejawów odpowiedzialności.
Ukraińskie Centrum Strategicznych Komunikacji i Bezpieczeństwa Informacyjnego ostrzegało wiosną przed rosyjską prowokacją, mającą polegać na przygotowaniu fejkowego wystąpienia Wołodymyra Zełenskiego, ogłaszającego kapitulację. Bohaterskiego prezydenta – póki co – nie zdeepfake'owano, ale dezinformacyjna ofensywa Rosjan trwa na całego. W jednym z odcinków Coś osobliwego opowiadała o niej Aleksandra Przegalińska, przytaczając choćby przykłady Vladimira Bondarenko i Iriny Kerimowej, którzy nienawidzą swojego rządu i wyrażają poparcie dla Putina... Tylko że blogera z Kijowa i nauczycielki z Charkowa tak naprawdę nie ma. Stanowią wytwór sztucznej inteligencji i sieci neuronowych, pozwalających na stworzenie wiarygodnych amalgamatów postaci.
Sygnałów ostrzegawczych nie brakowało nawet wcześniej, ale deepfake był jednak w dużej mierze bagatelizowany jako intrygująca nowinka ze światka sci fi. Bo można było wskrzesić Mona Lisę albo Salvadora Dalego do roli przewodnika po muzeum na Florydzie. Teledysk do The Heart Part 5, w którym Kendrick Lamar zamienia się w Ye, O. J. Simpsona czy Willa Smitha to pierwsze na taką skalę zastosowanie tego narzędzia w wideoklipie. Prawdziwa twarz tej technologii wymusza jednak przyspieszony kurs dezinformacyjnego ogarnięcia i cyfrowej higieny, przed którymi stają zachodnie społeczeństwa w obliczu wojny na Ukrainie.
O wykorzystywaniu AI do nakładania na siebie obrazów czy nagrań w celu uzyskania realistycznych fotomontaży głośno zrobiło się w drugiej połowie poprzedniej dekady. I to od razu w skrajnie negatywnym kontekście, gdy taka technologia posłużyła do sfabrykowania filmiku pornograficznego z Gal Gadot. W grudniu 2017 roku dziennikarka Vice’a dotarła do stulejarza z Reddita, który był za to odpowiedzialny. Okazał się nim programista zafascynowany deep learningiem, który posiłkował się tym, co znalazł w Google’u i na YouTubie. Wniosek nie nastrajał dobrze na przyszłość. This is no longer rocket science. Potwierdza to teraz Przegalińska, zwracając uwagę, że stworzenie w sieci doppelgängera kogoś rozpoznawalnego albo wykreowanie całkiem nowej – faktycznie nieistniejącej – postaci nie wymaga już nawet programowania. A to narzędzie tym groźniejsze, że dostępne globalnie.
Nie minęło wiele czasu, a niebezpieczne zjawisko zaczeło rozprzestrzeniać się w niesłychanym tempie. A w równie niesłychanym tempie narastał etyczny kryzys. Jak wynikało z raportu Deeptrace – w ciągu kilku miesięcy na przełomie 2018 i 2019 roku liczba deepfake'ów w sieci podwoiła się, a 96% z nich stanowił content pornograficzny, wprowadzający cybernetyczną przemoc wobec kobiet czy revenge porn na niespotykany dotychczas poziom. W Forbesie grzmiano wówczas o społecznych spustoszeniu, na które nikt nie jest gotowy. I nie było w tym cienia przesady.
Równocześnie pojawiła się krytyczna groźba na płaszczyźnie obiegu informacji i stabilności sceny politycznej. Mogło ekscytować, gdy Barack Obama ostrzegał przed zagrożeniami cyfrowymi oszustwami głosem Jordana Peele'a, ale jednak była to sytuacja typu Z czego się śmiejecie? Z samych siebie się śmiejecie, skoro nie brakowało przesłanek wskazujących na to, że powstało kolejne dezinformacyjne zagrożenie. Kolejne, bo – jak zwraca uwagę prof. Przegalińska – afera Cambridge Analytica w poprzedniej dekadzie była przykładem, jak rozprzestrzeniać fake newsy z wykorzystaniem organicznych mechanizmów mediów społecznościowych; algorytmów, które doceniają treści polemiczne, ostrze i radykalne. Obecnie przez wszystkie przypadki odmienia się z kolei farmy trolli i botów, których na Twitterze może być nawet dwadzieścia procent.
Jeszcze zanim Putin rozpętał wojnę – przed deepfake'ami na łamach Rzeczypospolitej ostrzegał też Kamil Sadkowski, specjalista cyberbezpieczeństwa w Eset. Tak zaawansowana technologia może się stać w przyszłości niebezpiecznym narzędziem w rękach cyberprzestępców i oszustów internetowych. Publikowanie filmów z rzekomych wystąpień ważnych polityków może powodować realne szkody na szczeblu polityki międzynarodowej. Deepfake może się przyczynić do powstawania konfliktów i skandali dyplomatycznych, a przez to wpływać na opinie i zachowania społeczne. Filmy z wykorzystaniem deepfake publikowane w czasie trwania kampanii wyborczych mogą się z kolei przełożyć na wyniki wyborów.
I jasne, że zastosowanie deepfake'ów w nauce czy rozrywce nie jest niczym niewyobrażalnym, ale entuzjazm słabnie nawet wraz z pozornie niegroźnymi realizacjami, które niebezpiecznie ocierają się blackmirrorową creeperiadę. Weźmy niesławne video z Tomem Cruisem czy pomysł, żeby James Dean zagrał w dramacie wojennym Finding Jack. Nie chodzi już nawet o zgrzyt moralny, ale pod względem artystycznym to jest Tupac na Coachelli.
Sytuacji nie poprawia przy tym fakt, że legislacja nie zawsze nadąża za futurystycznymi realiami. Prawodawcy w kolejnych krajach nie wywieszają białej flagi. Przykładowo – Chiny uznały publikację nieoznaczonych deepfake'ów za przestępstwo. Inna sprawa, że w warunkach wojennych raczej nikt nie będzie przejmował się kodeksem karnym. Na pomoc przyjść może sama technologia. Już w tym momencie dostępne są narzędzia, służące detekcji zmanipulowanych obrazów. Jak Detect Fakes, współtworzone przez naukowców z MIT. Podobnie – istnieją sposoby na weryfikację, czy dane konto w mediach społecznościowych jest kontem botowym. Weźmy Botometer. Najważniejsze jest jednak wzięcie się za bary z dezinformacją, zachowanie czujności i budowanie świadomości.
Komentarze 0