„Deepfake” – termin, który powstał z połączenia dwóch angielskich słów: „deep” i „fake”. To swoista parafraza bardzo znanego w świecie cyfrowych technologii „głębokiego uczenia się” (ang. – deep learning, skr. – DL ) oraz owianego złą sławą słowa „fałsz” (ang. – fake). Głębokie uczenie jest podkategorią uczenia maszynowego (ang. machine learning, skr. – ML) i polega na tworzeniu sieci neuronowych, które mają za zadanie udoskonalić technikę rozpoznawania głosu, wizję komputerową czy też przetwarzanie naturalnego języka.

Według aibusiness.pl – „uczenie maszynowe polega na technologicznym zapamiętywaniu pewnych wzorców i zachowań, których maszyna już kiedyś „doświadczyła”. Ponadto, dzięki temu możliwa jest także analiza nowych danych, a także szukanie rozwiązań, które sprawdziły się w innych, wcześniej znanych maszynie sytuacjach.” Procesy uczenia maszynowego oraz głębokiego uczenia się są częścią analizy wielkich zbiorów danych, zwanych Big Data.

Policjanci, artyści, oszuści i programiści

Krótki wstęp technologiczny pozwala na zrozumienie znaczenia zagadnień związanych z deepfake. Manipulowanie zdjęciami ma ponad sto lat. Już w XIX wieku wykorzystywano możliwości retuszu, nakładania obrazów oraz ich montażu na światłoczułych materiałach. Techniki „poprawiania rzeczywistości” zostały twórczo rozwinięte w epoce filmu. Cyfryzacja zapisu wideo przesunęła granice manipulacji dźwiękiem i obrazem. Sztuczna inteligencja wykorzystywana do produkcji filmowej zmieniła nie tylko zasady montażu, ale także sposób i cele prezentacji powstałych w ten sposób przekazów. Sprzyja temu konwergencja mediów, czyli zjawisko zacierania się różnic między różnymi kanałami przekazywania informacji w Internecie. Poza tym globalna sieć umożliwiła szybkie upowszednienie niedrogiego oprogramowania, które bardzo skutecznie wspiera inteligentną edycję cyfrową audio i wideo. To samo dotyczy dostępu do technologii rozpoznawania twarzy lub innych elementów obrazów, które są utrwalone na cyfrowych nośnikach lub w chmurze obliczeniowej.

Wykorzystanie sztucznej inteligencji do rozpoznawania twarzy stało się jednym z podstawowych narzędzi służących do walki z przestępczością. Pojawienie się aplikacji Clearview AI było prawdziwym przełomem w tej dziedzinie. Organy ścigania oraz służby graniczne na całym świecie zaczęły na masową skalę stosować tę futurystyczną metodę w celu monitorowania ruchu ludności oraz lokalizowania osób poszukiwanych i weryfikacji danych osobowych. Narzędzie okazało się niezawodne, proste w obsłudze i tanie. Aplikacja opiera swoje działanie na analizie bazy danych ponad trzech miliardów zdjęć z Facebooka, You Tube’a oraz milionów innych stron internetowych.

Używanie tej aplikacji przez służby wywołało jednak wiele kontrowersji. W konsekwencji najwięksi światowi operatorzy platform społecznościowych zablokowali Clearview oraz możliwość dalszej eksploracji gromadzonych prze nich danych.

Zarzuty dotyczyły przede wszystkim „stronniczości algorytmów”, które utrwalały szkodliwe stereotypy dotyczące rasy, pochodzenia etnicznego lub wieku. Na przykład jako przestępcy w pierwszym rzędzie byli typowani osobnicy o egzotycznych rysach twarzy lub kolorze skóry. Z tego względu, takie potęgi jak IBM, Amazon i Microsoft zdecydowały wycofać się z badań, których celem był rozwój metod służących rozpoznawaniu twarzy. Mało tego, podjęto także decyzję o zaprzestaniu sprzedaży specjalistycznego oprogramowania amerykańskiej policji.

Sztuka bycia uczciwym w cyfrowym świecie

Fałszowanie tożsamości to jedna z podstawowych metod, którą od wieków posługuje się świat przestępczy. Ostatnio technologia cyfrowa umożliwia łatwe i skuteczne manipulowanie głosem. Znane są przypadki okradania rachunków bankowych przez złodziei, którzy przez telefon zlecali wykonanie przelewów, używając do tego sfałszowanego elektronicznie głosu dysponenta rachunku. Głośno było również o złamaniu zabezpieczenia dostępu do smartfonu znanej marki, które opiera się na rozpoznawaniu twarzy. Przestępcy „oszukali” algorytm, podsuwając mu sfałszowane zdjęcie właściciela komórki. Wiele fałszerstw wiąże się z wykorzystywaniem wizerunku osób znanych. Powstają setki filmów, w których oryginalne twarze aktorów, dzięki sztucznej inteligencji, zastępują inne. W kampaniach politycznych, media społecznościowe coraz częściej obiegają materiały wideo, gdzie zmanipulowani cyfrowo politycy wygłaszają absurdalne w swojej treści, kontrowersyjne manifesty. Zjawisko to staje się na tyle powszechne, że już nawet przestaje wywoływać zainteresowanie dziennikarzy i sensacyjne reakcje. Sprzyja temu łatwy dostęp do tanich aplikacji deepfake.

W ubiegłym roku na chińskim rynku pojawiła się aplikacja Zao App, dzięki której każdy posiadacz smartfona może zastąpić znaną gwiazdę, odgrywającą główną rolę w ulubionym filmie. Wystarczy wykorzystać aparat do selfie, aby „nauczyć” aplikację mimiki twarzy posiadacza telefonu.

Technologia deepfake może służyć do inwigilacji, ale także zapobiega przechwytywaniu danych twarzy. Amerykańska firma Alethea AI opracowała technikę „otulania twarzy” specjalnymi algorytmami sztucznej inteligencji. W ten sposób powstają awatary – oryginalne cybernetyczne maski, które zastępują rzeczywisty obraz osoby występującej przed internetową kamerką. Narzędzie powstało w celach marketingowych. Własne wideoblogi mogą być „firmowane” przez awatara twórcy, którego prawdziwego wizerunki nigdy nie poznamy. Każdy „wirtualny bloger” może zastrzec prawo wyłączności do swojego awatara. Alethea AI pracuje nad takim rozwiązaniem, które umożliwi „maskowanie” twarzy w czasie rzeczywistym. Będzie ono szczególnie atrakcyjne dla osób, chcących ukryć swój wygląd w sytuacjach komunikacji online, na przykład w czasie transmisji na popularnej ostatnio wśród uczniów i nauczycieli platformie Zoom.

Proces tworzenia etycznych ram

Sztuczna inteligencja oferuje nowe możliwości zwiększania produktywności firm, wzbogaca doświadczenia estetyczne, rozwija sieci znajomych w mediach społecznościowych. Wykorzystana w sposób odpowiedzialny jest źródłem pozytywnych wartości. W rękach przestępców lub głupców algorytmy stają się jednak potężną i pozbawioną jakiejkolwiek kontroli wyjątkowo niebezpieczną bronią.

Konieczne jest szerokie porozumienie w sprawie etycznego wdrażania sztucznej inteligencji. W ubiegłym roku Międzynarodowe Stowarzyszenie Prawa Technologicznego opracowało ramowe wytyczne, które rozpoczynają proces tworzenia etycznych ram według, których powinno przebiegać odpowiedzialne tworzenie algorytmów sztucznej inteligencji. Wydaje się, że i tym razem działania prawników są uwikłane w analogowy sposób pojmowania świata i nie nadążają za przyspieszeniem zmian pędzącej cyber rzeczywistości.