Fotomontaż wyraźnie ewoluował. Sztuczki z nim związane nie ograniczają się już tylko do zmiany koloru oczu na zdjęciu. Można dzięki niemu podszyć się pod każdego, oszukać miliony ludzi albo zrujnować czyjeś życie.
Bardzo często tracę czas na oglądanie niewiarygodnych zdjęć i filmów w internecie. Znacie to: ktoś wrzuca do sieci wideo lub fotografię, którą zdrowy rozsądek uznaje za nieprawdopodobną. Chwila namysłu, analiza praw fizyki i konsultacja ze znajomym fotografem niewiele pomaga.
Komputerowe sztuczki wizualne przeżywają swój rozkwit. Można by rzec, że uczeń przerósł mistrza. Technologia potrafi zmodyfikować rzeczywistość do tego stopnia, że ludzkie oko praktycznie nie będzie w stanie wychwycić nieprawidłowości. Przykładowo, zmiany na twarzy człowieka powstałe w wyniku edycji fotografii rozpoznajemy tylko z 53% skutecznością. Nasz aparat wzroku nie ma szans na rywalizację z komputerem, który nie myli się aż w 99% przypadków. Ta liczba dobije zapewne niedługo do setki.
Spis treści
Deepfake – fotomontaż 2.0
Sztuczki, o których mowa w tym tekście, ciężko nazywać jeszcze fotomontażem. Techniki zakrzywiania rzeczywistości awansowały do tego stopnia, że powstało nowe określenie. Nie jest zupełnym neologizmem, ale większość go nie zna. Nie było nam potrzebne, bo do tej pory nas nie dotyczyło. Ale wszystko może się zmienić.
Deepfake, bo to o nim mowa, to technika generowania treści wspomagana sztuczną inteligencją. W ogromnym uproszczeniu porównałem ją do fotomontażu, bo dysponując odpowiednimi fotografiami i filmami jest w stanie wygenerować dowolną osobę, mówiącą i wykonującą dowolne rzeczy.
Wiarygodność i dokładność obrazów powstałych wskutek stosowania tych technik jest dyskusyjna. Może być idealna, ale może też pozostawiać wiele do życzenia. Nie zapominajmy, że to wciąż doskonalona technologia. Testuje się ją np. metodą GAN, w której dwoje przedstawicieli sztucznej inteligencji rywalizuje ze sobą. Jeden fałszuje rzeczywiste treści, a drugi stara się rozpoznać wprowadzone zmiany.
Cyfrowy Obama
Właśnie z użyciem Deepfake’u podszyto się kiedyś pod Baracka Obamę. W wygenerowanym sztucznie filmie obraził Donalda Trumpa! Pozdrowił też swoich fanów i obywateli młodzieżowym slangiem . Na szczęście było to jawne użycie deepafake’u – wideo zrealizowało jedno z mediów w USA. Cyfrowy prezydent mówił w sposób nieadekwatny do pełnionej funkcji. Wspominał też, że nadchodzi era, w której można podszyć się pod naszych wrogów. Wideo miało być celową przestrogą przed możliwościami naginania rzeczywistości, ale… nie wszyscy zauważyli to od razu.
https://www.youtube.com/watch?v=cQ54GDm1eL0
Pod filmem pojawiły się liczne komentarze niezadowolonych internautów. Jak ufać mediom, skoro tak łatwo nas zmanipulować? – pytają niektórzy z nich. W gruncie rzeczy, to bardzo dobre pytanie. Obawiam się, czy sami jesteśmy w ogóle cokolwiek zdziałać. Skoro nasze oczy są zbyt mało czułe na fotomontaż sztucznej inteligencji, mamy spory problem. Dostrzegło go Adobe, czyli właściciel popularnego Photoshopa. W programie ma się niedługo pojawić funkcja, która rozpozna, czy dodane zdjęcie było w jakiś sposób modyfikowane. Filmów dzięki temu wciąż jednak nie zweryfikujemy, a już na pewno nie w czasie rzeczywistym.
Fałsz niesie się szybciej
Naukowcy zajmujący się fałszywymi newsami stwierdzili, że rozpowszechniają się one znacznie szybciej i skuteczniej, niż te prawdziwe. Za fundament do badania posłużyło ponad 100 tysięcy tweetów. Cały organizm mediów społecznościowych jest doskonałym przykładem mocy i autorytetu fałszu. Fake newsy i owoce deepfake’u są jak wirusy, które samoistnie się rozprzestrzeniają. Gdyby tego było mało, w sieci pracują setki tysięcy trolli internetowych, którzy rozprzestrzeniają te bzdury.
PRZECZYTAJ TEŻ: 80 TYS. TROLLI, ROSJA I FAKE NEWSY – INTERNETOWY BAŁAGAN, KTÓRY TRZEBA POSPRZĄTAĆ
Fake newsy są niczym perpetuum mobile. Same na siebie zarabiają i osiągają wartość wyższą niż prawda. Niedługo będą tworzone automatycznie, przez SI. Nic dziwnego, że każdy chce być specjalistą w dziedzinie retuszowania rzeczywistości. Co smutne, każdy może nim być.
Narzędzia dla każdego
Od kilku lat jest powszechnie dostępna w sieci i pobrać może ją każdy z nas. To aplikacja FakeApp, która przy odrobinie wysiłku pomoże w fałszowaniu. Aby użyć programu należy wybrać osobę, która będzie generowana cyfrowo. Oprogramowanie trzeba nakarmić jej zdjęciami: minimalna liczba to około 500 fotografii, ale im ich więcej, tym lepszy efekt. Dostarczone zdjęcia powinny być wyraźne i prezentować różne wyrazy twarzy. Później wystarczy już tylko dodać model video, w którym twarz zostanie podmieniona. Jeśli chce się stworzyć film podobny do tego z Barackiem Obamą, sprawa się komplikuje.
Głos, który zostanie podłożony pod ruchomą twarz bohatera może nagrać aktor dubbingowy. Gdzie takiego znaleźć? Jeśli to zbyt trudne, to “dobra” wiadomość jest taka, że głos również można wygenerować cyfrowo. Z pomocą przychodzi strona Lyrebird, która jest jednym z najlepszych i najprostszych narzędzi do generowania głosu. Każdy zainteresowany może ją wypróbować. Jedyne, czego trzeba, to 30 próbek głosu, które nagrywa się po rejestracji na stronie. Niestety jedynym dostępnym językiem jest na razie angielski. Efekt może lekko zrazić, bo minimalna wymagana długość nagrań nie jest tą optymalną. Podobnie jak ze zdjęciami: im więcej materiału powierzymy sztucznej inteligencji, tym bardziej spektakularny będzie efekt jej pracy. To zachwyca, ale i przeraża. Możliwości komputerów są nieskończone, bo ciągle się uczą.
Pornografia na życzenie
Fałszerstwo fotografii i filmów staje się biznesem. Robieniem pieniędzy na kłamaniu zainteresowany jest przede wszystkim przemysł pornograficzny. Amerykańska firma zajmująca się produkcją takich treści ma już plan na spersonalizowane filmy erotyczne, które będą dostępne na zamówienie. Dzisiaj zamawiamy kubki ze zdjęciem drugiej połówki, a jutro będą to filmy. Ale jakie!
Naughty America, bo to o tej firmie mowa, chce podmieniać twarze w nagranych już filmach na twarze osoby bliskiej zamawiającemu. W zamyśle za zgodą tej osoby – ale to teoria, od niej do praktyki daleko. Dowodzi temu twórczość jednego z użytkowników Reddita, który wrzucił kiedyś do sieci filmy pornograficzne z twarzami znanych gwiazd jak choćby Emma Watson, Scarlett Johansson czy Taylor Swift.
Na granicy prawa
Wobec tak ekstremalnych nadużyć wizerunkowych jak te opisane powyżej rodzi się wiele wątpliwości. Głównie prawnych. Czy to legalne? Nie znalazłem aktu prawnego, który wprost zabraniałby oszustw typu deepfake.
W Europie obowiązuje RODO, które teoretycznie daje poszkodowanym, których wizerunek został przetworzony, prawo do usunięcia takich publikacji. Jeśli mówimy wyłącznie o fałszowaniu pornografii, w Polsce obowiązuje jeszcze artykuł 191a Kodeksu Karnego nakładający karę do 5 lat więzienia za utrwalanie lub rozpowszechnianie wizerunku osoby nagiej lub w trakcie czynności seksualnej bez jej zgody.
W USA sprawa nie jest tak oczywista. Zawsze pozostaje jednak jeszcze roszczenie z tytułu zniesławienia, które jest w tych przypadkach najrozsądniejszym oskarżeniem wobec fałszerza. I mimo, że ta podstawa prawna mogłaby wystarczyć do obrony własnego wizerunku, to brakuje konkretnych przepisów zabraniających oszustw wizualnych. W średniowieczu fałszerstwo, co prawda pieniężne, ale jednak, karano śmiercią – tu byłby to środek stanowczo nieadekwatny Ale o karze finansowej przydałoby się pomyśleć.
Deepfake to narzędzie, które w niepowołanych rękach jest zdolne do wszystkiego. Poruszone tu kwestie to wierzchołek góry lodowej zbudowanej z wizerunkowych problemów.