Na umieszczonym na portalu LinkedIn filmiku, Mollick wygląda na typowego wykładowcę. Jest ubrany w koszulę w kratę, jego wypowiedź jest składna. Niewiele szczegółów zdradza, że postać na filmie powstała dzięki uczeniu maszynowemu (ang. machine learning). Profesorowi Uniwersytetu Pensylwanii wystarczyło osiem minut, żeby wygenerować fałszywe wideo, w którym obraz i głos jest sztuczny. Tworzenie nieprawdziwych wiadomości nigdy nie było takie łatwe. Niesie to ze sobą poważne konsekwencje.
Co to jest deepfake?
Jest to metoda obróbki obrazu, która polega na łączeniu obrazów za pomocą sztucznej inteligencji. AI może również wygenerować głos do nagrania, który w połączeniu z obrazem tworzy film bardzo trudny do weryfikacji.
Nazwę tę zaproponował użytkownik, który w 2017 roku w serwisie Reddit opublikował fałszywy film pornograficzny przedstawiający aktorkę Gal Gadot. Jakość nagrania była niska, ale tysiące użytkowników wzięło materiał za autentyczny. W tamtym momencie ujawniło się całe niebezpieczeństwo, jakie niesie ze sobą deepfake.
Nie trzeba było długo czekać na wzrost popularności tej techniki. Serwis CNBC informował, że na początku 2019 opublikowano 7964 filmy deepfake, a zaledwie dziesięć miesięcy później było ich już 14 678.
Co zrobił profesor Mollick?
Wykładowca z Uniwersytetu Pensylwanii nie zrobił niczego odkrywczego. Użył swojego zdjęcia i głosu, żeby wygenerować za pomocą AI swój cyfrowy odpowiednik. Wszystko zajęło mu osiem minut i kosztowało kilka dolarów.
Chciałem sprawdzić, czy uda mi się samodzielnie przygotować fałszywe wideo. Okazało się, że to nie tylko proste, ale zajmuje tylko kilka minut
powiedział Mollick w wywiadzie dla portalu NPR
Profesor uświadomił sobie szybko jak poważne konsekwencje niesie ze sobą deepfake. Za jego sprawą autorzy fałszywych wiadomości wkraczają na niedostępny dotąd grunt, którym są materiały filmowe. Nasuwa się zatem pytanie, jakie konsekwencje niesie sobą powstanie tej metody?
Przeczytaj też:
Kto używa deepfake’ów?
Możliwość podłożenia pod dowolne wideo praktycznie każdej postaci daje idealną okazję do wpływania na publikę. Deepfake’i można wykorzystać bowiem do skompromitowania kogoś. Ofiarą może stać się właściwie każdy, kto umieścił w sieci swoje zdjęcia i filmy. Najbardziej narażone są osoby rozpoznawalne – celebryci, aktorzy, dziennikarze i politycy. W przypadku tych ostatnich jest to szczególnie niebezpieczne, ponieważ może wywołać daleko idące implikacje.
Przy obecnej technice nic nie stoi na przeszkodzie, żeby wygenerować fałszywy film z Joe Bidenem, w którym grozi Rosji użyciem broni nuklearnej. Można się spodziewać, że administracja prezydenta USA szybko zdementowałaby takie wideo, ale informacja zostałaby puszczona w obieg i krążyłaby po sieci, wprowadzając w błąd. Pomysłów na zastosowanie deepfake’ów jest zapewne tyle, ilu ludzi mieszka na Ziemi.
Jednym z głośniejszych przykładów na zastosowanie tej techniki było podrobienie głosu. W 2019 roku złodzieje podszyli się pod głos jednego z dyrektorów brytyjskiej firmy energetycznej i zadzwonili do szefa jej niemieckiej filii. W czasie rozmowy nakłonili go do przelania 220 tys. euro. Ofiara twierdziła później, że głos jego przełożonego „miał tę samą melodię” oraz niemiecki akcent. Sprawcy tej zuchwałej kradzieży, póki co nie zostali złapani.
Pozytywne przykłady
Deepfake może być użyty w dobrej wierze, bo narzędzie to – jak większość technologii – nie jest złe samo w sobie. Studia filmowe stosują go do „odmładzania” niektórych aktorów. Tak było w przypadku Luke’a Skywalkera granego przez Marka Hamilla. Dzięki uczeniu maszynowemu aktor został odmłodzony i trudno było uwierzyć, że jest to sztucznie wygenerowana postać. Podobnie było z komandorem Tarkinem w filmie „Łotr 1”. Peter Cushing, który wcielał się w jego rolę w „Nowej Nadziei”, zmarł w 1994 roku. Z pomocą sztucznej inteligencji filmowcy nałożyli jego twarz na aktora, który służył jako baza do odtworzenia postaci z oryginalnego filmu.
Deepfake jest często stosowany do celów czysto satyrycznych. Przykładem mogą być filmiki z Joe Bidenem grającym w grę „Minecraft” razem z Barrackiem Obamą i Donaldem Trumpem. Nie zmienia to faktu, że w rękach nieodpowiednich osób narzędzie to niesie ze sobą poważne zagrożenie. W 2022 roku rosyjscy propagandziści opublikowali na Facebooku wideo, na którym Ppezydent Ukrainy, Wołodymir Zełeński ogłasza kapitulację swojego kraju. Film szybko został usunięty z serwerów, ale zanim do tego doszło, tysiące osób mogło uwierzyć w poddanie się państwa.
Jak walczyć z deepfake’ami?
Walka może odbywać się na dwóch płaszczyznach. Pierwszą jest oprogramowanie, które ma rozpoznać fałszywe wideo. Z fałszywymi treściami wideo chcą walczyć Microsoft i Facebook. W 2019 powołały inicjatywę o nazwie Deepfake Detection Challenge. Firma Marka Zuckerberga przeznaczyła na ten cel 10 mln dolarów.
Drugim sposobem jest samodzielna weryfikacja treści, które do nas docierają. Będzie to jednak coraz trudniejsze, ponieważ postęp w tej dziedzinie przyspiesza. W niedalekiej przyszłości będą pojawiać się coraz lepsze narzędzia, które wygenerują obraz jeszcze lepszej jakości niż obecnie. Powstaje zatem pytanie, czy samodzielna weryfikacja treści jest w ogóle możliwa?
Źrodła:
- Shannon Bond, „NPR”, „It takes a few dollars and 8 minutes to create a deepfake. And that’s only the start”, 2023
- Ana Diaz, „TikTok videos are using AI tools to turn Biden, Trump, and Obama into Discord goblins”, 2023
- Ethan Mollick, „One useful thing”, „A quick and sobering guide to cloning yourself”, 2023
- Grace Shao, „CNBC”, „What ‘deepfakes’ are and how they may be dangerous”, 2019
Przeczytaj również: