Technologie 2024-08-10
7

Technologia deepfake coraz większym zagrożeniem dla internautów. Te narzędzia pomogą wam wykryć oszustwo

Deepfake (fot. Shutterstock.com) Deepfake (fot. Shutterstock.com)

Temat cyberbezpieczeństwa z każdym kolejnym rokiem staje się coraz istotniejszy i to nie tylko ze względu na ataki hakerskie wymierzone w wielkie korporacje, ale przede wszystkim próby oszukiwania zwykłych internautów. Jednym z coraz częściej wykorzystywanych narzędzi do wyłudzania pieniędzy stają się tzw. deepfakes. Jak można się przed nimi skutecznie chronić?

W kontekście zbliżających się wyborów prezydenckich w USA coraz częściej podnoszony jest problem cyberbezpieczeństwa, oszustw w internecie, fake newsów i tzw. deepfake. Obawom związanym z manipulacją trudno się dziwić, bo i pojawiające się w przestrzeni publicznej wieści nie nastrajają pozytywnie. Nie tak dawno badanie przeprowadzone przez AI Democracy Projekt ujawniło, że sztuczna inteligencja myli się przy co drugim pytaniu dotyczącym wyborów. W świecie zdominowanym przez tę technologię ryzyko zauważalnie więc wzrasta.

Powody do obaw budzą też ciągłe doniesienia na temat rozmaitych cyberataków. Na polskim podwórku przeżywaliśmy sprawę dezinformacyjnej depeszy rzekomo wysłanej przez PAP, a w Stanach Zjednoczonych w ciągu kilku miesięcy zostały zaatakowane takie korporacje jak Roku, Ticketmaster czy ostatnio nawet Disney. Znane marki, celebryci i osoby pełniące funkcje publiczne często padają ofiarą fake newsów i deepfake'ów. Część z nich, jak Rafał Brzoska, walczy z tym procederem i chce dociekać swoich praw przed sądem. Istnieją też jednak inne metody radzenia sobie z oszustwami tego typu.

Czytaj też: Polska na niechlubnej liście. Deepfake użyty przez polityków

Najlepsze narzędzia do wykrywania deepfake'ów

Programy do tworzenia deepfake'ów nie są idealne i wciąż da się niekiedy samemu ocenić, czy np. proponowany nam na Facebooku krzykliwy nagłówek dotyczący znanej postaci jest prawdą. Rozwój tej technologii jest jednak nieunikniony, więc jakość fałszywych wideo i zdjęć będzie tylko się pogłębiać. Wkrótce najlepszą metodą wykrycia, co jest prawdą w internecie, będzie jasne zdefiniowanie tego, co jest nieprawdą.

Swego rodzaju absurdem tej sytuacji jest fakt, że zarówno narzędzia do tworzenia deepfake'ów i ich wykrywania często są oparte na generatywnej sztucznej inteligencji. Tym drugim mianem określa się oprogramowanie lub system zaprojektowany do identyfikowania i wykrywania fałszywych filmów lub obrazów. Zwykle wykorzystuje różne metody do analizy treści cyfrowych i ustalenia, czy zostały one zmanipulowane lub wygenerowane przez AI.

W internecie nie brak programów, które zostały zbudowane właśnie w tym celu. Na czym polega ich działanie, czym się od siebie różnią i na ile można na nich polegać? Polecamy nasze zestawienie.

Sentinel, Sensity oraz WeVerify

Wśród narzędzi wskazywanych jako najskuteczniejsze w identyfikacji fałszywy wideo i zdjęć często wskazywana jest technologia Sentinel. Nie ma przypadku w tym, że z programu korzystają agencje bezpieczeństwa, organizacje pozarządowe i media z całej Europy. Oparty na AI zaawansowany system detekcji pozwala na wgranie za pomocą aplikacji lub strony internetowej cyfrowego obrazu lub wideo, który następnie zostaje analizie na kilku poziomach. Materiał zostaje po pierwsze sprawdzony pod kątem fałszerstwa przy użyciu sztucznej inteligencji, a następnie determinuje, czy mamy do czynienia z deepfakiem. Na koniec użytkownik utrzymuje zaś graf wizualizujący wszelkie manipulacje.

Inny rozwiązaniem opartym na sztucznej inteligencji jest Sensity. Program można wykorzystywać do wykrywania podmiany twarzy, wyłapywania zmanipulowanego audio oraz obrazków wygenerowanych przez AI. Sensity jest polecane jako szybkie i skuteczne narzędzie do sprawdzania autentyczności cyfrowych interakcji z drugą osobą, a także używane w ramach procedury KYC, czyli Poznaj swojego klienta.

Do polecanych programów należy również WeVerify, ale w tym wypadku mówimy raczej o wyzwaniach wymagających zaawansowanych metod weryfikacji treści. Wspomniany projekt koncentruje się na analizowaniu oraz kontekstualizacji treści mediów społecznościowych i stron internetowych w ramach szerszego ekosystemu internetowego w celu ujawnienia sfabrykowanych treści. System wykrywa deepfejki za pomocą znajdującej się w blockchainie bazy danych znanych fake'ów, którą napędzają algorytmy open-source i uczenie maszynowe. WeVerify Deepfake Detector można używać do zdjęć i nagrań wideo.

Narzędzia Google'a, Intela i Microsoftu

Część z dostępnych na rynku narzędzi do wykrywania deepfake'ów należy do mniejszych firm IT, które skupiają się właśnie na tym jednym wycinku kultury internetowej. Swoje rozwiązania proponują też jednak wielcy gracze. Big Tech nie jest ślepy na problem sfabrykowanych zdjęć i filmików, nawet jeśli (co pokazuje przykład Mety) w niektórych przypadkach lubi ten problem ignorować. Co mają do zaoferowania takie firmy jak Google czy Microsoft?

Czytaj też: Byli pracownicy Google'a i OpenAI ujawnili prawdę. Bali się zemsty za sprzeciw wobec sztucznej inteligencji

Google DeepMind, czyli laboratorium do badań nad AI założone przez należącą do Alphabetu firmę, w zeszłym roku wypuściło na rynek narzędzie SynthID służące do oznaczana za pomocą niewidocznego dla ludzkiego oka śladu wodnego na zdjęciach i nagraniach audio stworzonych przy użyciu sztucznej inteligencji. Testy oprogramowania trwają od zeszłego roku, a w maju Google ogłosił, że od tej pory ślad wodny będzie można też zostawiać na tekstach stworzonych przez sztuczną inteligencję. Co ważne, SynthID pozwoli nie tylko umieszczać znaki na własnych utworach, ale też identyfikować przerobione w ten sposób zdjęcia, nagrania i teksty. Narzędzie ma więc na celu propagowanie odpowiedzialnego i otwartego korzystania z AI.

Swoja cegiełkę do sprawy wykrywania sztucznie przetworzonych treści dokłada też gigant z Redmont. Microsoft Video Authenticator służy walce z dezinformacją, dzięki dokładnej analizie zdjęć czy filmów pod kątem niewidocznych gołym okiem zmian poczynionych przez AI. Program analizuje przedstawiony obraz, po czym przedstawia użytkownikowi procentową szansę na to, że doszło do manipulacji. W przypadku filmów materiał jest analizowany w czasie rzeczywistym, a wspomniany wynik dotyczy każdej kolejnej sekundy jego trwania. Microsoft jednocześnie chwali się, że Video Authenticator powstał na bazie publicznie dostępnych danych i był szkolony w DeepFake Detection Challenge Dataset.

Swoje narzędzie do wykrywania sfałszowanych wideo stworzył też Intel. FakeCathcer łączy w sobie oparte na sztucznej inteligencji algorytmy wykrywania twarzy i punktów orientacyjnych oraz zestaw narzędzi do analizy obrazu i wideo w czasie rzeczywistym. Cały system został oparty na procesorze Intel Xeon Scalable trzeciej generacji, który może jednocześnie zarządzać maksymalnie 72 oddzielnymi sekwencjami wykrywania. W przeciwieństwie do innych programów tego typu Intel FakeCatcher nie szuka oznak nieautentyczności poprzez analizę surowych danych. Zamiast tego koncentruje się na definiowaniu autentycznych, ludzkich znaczników w prawdziwych filmach. Oznacza to, że np. identyfikuje zmiany w pikselach filmu, które oznaczają przepływ krwi w żyłach twarzy, a jego algorytm przekształca te zmiany w mapy czasoprzestrzenne. Następnie, dzięki zastosowaniu metod głębokiego uczenia się, FakeCatcher rozpoznaje, czy film jest prawdziwy, czy sfałszowany.

Najlepsze programy do wykrywania deepfake'ów:

  • Sentinel,
  • Intel FakeCatcher
  • Sensity
  • Google SynthID
  • Microsoft Video Authenticator Tool
  • WeVerify

Największe słabości programów opartych na AI

Nietrudno zauważyć, że dostępne narzędzia do wykrywania deepfake'ów w zdecydowanej większości opierają się na rozwiązaniach wspomaganych przez sztuczną inteligencję. Mamy więc do czynienia z sytuacją, gdy korzystamy z AI, by walczyć z AI. Warto mieć jednak na uwadze, że generatywna sztuczna inteligencja może mieć problem z wykrywaniem manipulacji, które nie powstały przy użyciu oprogramowania tego typu.

Sztuczna inteligencja w przeszłości wielokrotnie popełniała błędy w analizowaniu deepfake'ów, gdy miała do czynienia z uciętym fragmentem obrazka czy skompresowanymi plikami. Wszystko dlatego, że trening AI przeważnie nie obejmuje wszystkich sposobów usuwania metadanych. Podobnie jest choćby ze sfałszowanymi plikami audio o słabej jakości, które narzędzia do wykrywania deepfake'ów często wskazują jako prawdziwe. Nawet tak prosta metoda jak zrobienia screena zdjęcia wygenerowanego przy użyciu AI pozbawia obrazek metadanych niezbędnych do jego identyfikacji jako fake. Nie dziwi więc, że wiele ze wspomnianych wyżej programów wciąż znajduje się w fazie testów i stałego usprawniania.

Autor: Tomasz Gardziński

praca.wirtualnemedia.pl

Dotrzyj do ponad miliona czytelników
KOMENTARZE (7) DODAJ OPINIĘ

W TYM TEMACIE

NAJPOPULARNIEJSZE

<WRÓĆ NA PRACA
Praca Start Tylko u nas