Użytkownik, który zamieścił filmy na Tik Toku posługuje się wiele mówiącym nickiem „deeptomcruise”. Na jednym z nagrań niby-aktor gra w golfa, na innym pokazuje magiczne sztuczki i wyjaśnia, że wszystko, co widzimy jest iluzją, na kolejnym opowiada o spotkaniu z Gorbaczowem.
Filmy szybko stały się wiralem, a to ze względu na wyjątkowo realistyczne wykorzystanie technologii deepfake, pozwalającej użytkownikowi na zamianę twarzy. Choć użytkownicy Tik Toka są zachwyceni pomysłowością autora nagrań, to eksperci ds. nowych technologii i cyberbezpieczeństwa nie kryją niepokoju i przyznają, że to „najbardziej niepokojąco realistyczny przykład” wykorzystania tego narzędzia.
„Zobaczyć już nie znaczy uwierzyć” – tak filmy z fałszywym Cruise’m skomentował Sam Gregory, dyrektor aware.org – programu popularyzującego świadome zachowania i bezpieczeństwo, szczególnie wśród kobiet.
Podkreślił, że ofiarami bezprawnego korzystania z technologii deepfake często padają kobiety, których twarze pojawiają się np. w sfałszowanych materiałach pornograficznych, które mogą posłużyć do partnerskiej zemsty lub zniszczenia czyjejś kariery.
Na serwisach dla dorosłych coraz popularniejsze stają się także filmy, gdzie twarze prawdziwych aktorów i aktorek są “zamieniane” na twarze celebrytów. Na razie deepfaki, jak te z Tomem Cruise’m, zdają się służyć głównie rozrywce, ale powinny budzić nasze zaniepokojenie.
– Ta technologia nie zniknie. A istnieje równie ogromna liczba naprawdę negatywnych i złośliwych przypadków jej użycia – ostrzega czołowy ekspert ds. deepfake Henry Ajder.
Część ekspertów, choć podziela obawy, równocześnie chwali efekty przeróbki, bo fałszywy Cruise odzwierciedla mowę, maniery i wygląd prawdziwej gwiazdy. Hany Farid, profesor z Uniwersytetu Kalifornijskiego w Berkeley, który specjalizuje się w analizie obrazów cyfrowych, przyznał, że chociaż zauważył, że klip jest fałszywką, wciąż uważa, że jest „niewiarygodnie dobrze zrobiony”.
Z kolei Rachel Tobac, dyrektor generalna firmy SocialProof zajmującej się bezpieczeństwem online, napisała na Twitterze, że filmy dowiodły, że “osiągnęliśmy etap prawie niewykrywalnego deepfakes”.
“Deepfaki wpłyną na zaufanie publiczne, zapewnią przykrywkę i wiarygodne alibi przestępcom złapanym na wideo lub audio i będą (już są) wykorzystywane do manipulowania, poniżania i krzywdzenia ludzi” – napisała. Dodała, że technologia ta będzie mieć rzeczywisty wpływ na politykę na świecie, a co za tym idzie na bezpieczeństwo nas wszystkich.
Deepfake namiesza w polityce?
Technologia deepfake została wynaleziona w 2014 roku przez Iana Goodfellowa, który był dyrektorem uczenia maszynowego w grupie projektów specjalnych Apple i liderem w tej dziedzinie. Słowo to wywodzi się ze współpracy terminów „głębokie uczenie się” i „fałszywy” i jest formą sztucznej inteligencji.
Narzędzia deepfake analizują budowę twarzy osoby nagrywanej i “docelowej”, a następnie łączą prawdziwą twarz z maską w najbardziej istotnych punktach. Dzięki doskonaleniu techniki fałszywe cyfrowe maski są coraz lepiej dopasowane do twarzy i pozwalają na wierne odwzorowywanie mimiki.
Technologia przyciąga uwagę ekspertów i opinii publicznej od kilku lat. Zrobiło się o niej głośno szczególnie w kontekście politycznym, m.in. w związku z wyborami prezydenckimi w USA. Wielu programistów obawiało się wówczas, że deepfake zostanie wykorzystany do podważenia reputacji kandydatów i ich zdyskredytowania.
Co prawda Tik Tok ma w swoim regulaminie zapisy dotyczące podszywania się pod innych, ale najwidoczniej ich egzekwowanie jest problemem.