SzukajSzukaj
dołącz do nasFacebookGoogleLinkedinTwitter

Dezinformacja – czy jesteśmy w stanie odróżnić ją od informacji?

Deepfake, dezinformacja, klonowanie głosu i wizerunku. To potężny arsenał zagrożeń dla użytkowników indywidualnych i firm, które przynosi ze sobą rozwój sztucznej inteligencji. Czy w ogóle można im skutecznie przeciwdziałać?

Deepfake (fot. Shutterstock.com)Deepfake (fot. Shutterstock.com)

Rozwój sztucznej inteligencji oraz technik deepfake zdecydowanie zmienił sposób, w jaki tworzone i rozpowszechniane są fałszywe przekazy. Kiedyś wystarczyło w rozgłośni radiowej CBS puścić słuchowisko — reportaż o inwazji Marsjan na Ziemię, aby wzbudzić panikę wśród wielu mieszkańców New Jersey. Dziś Orson Welles musiałby poszukiwać nieco bardziej wyrafinowanych technik. I co ważne, bez trudu by je znalazł. I to niezwykle skuteczne.

Dzięki coraz bardziej zaawansowanym algorytmom możliwe jest generowanie realistycznych obrazów, filmów i dźwięków, które imitują prawdziwe osoby i wydarzenia. Skutki tych technologii  to zarówno wyłudzenia finansowe jak i manipulacja opinią publiczną na masową skalę. Deepfake czy klonowanie głosu z powodzeniem wchodzą do polityki, pozwalając nabierać nie tylko mniej zaawansowanych użytkowników sieci, jak również polityków z pierwszych stron gazet. Przeanalizujmy technologiczne, psychologiczne i socjologiczne aspekty tych zagrożeń oraz metody ich rozpoznawania i zwalczania.

Fałszywe przekazy w dobie AI

Głośne przykłady prób dezinformacji przy użyciu rozwiązań technologicznych można wymieniać bez końca. To nie tylko zdjęcia tulących się do siebie Donalda Trumpa i Anthonego Fauciego, papież Franciszek w puchowej designerskiej kurtce, czy też spreparowane, wzbudzające strach zdjęcia ukazujące zniszczenia wywołane przez tą, czy inną stronę konfliktu zbrojnego.

To także potencjalnie niegroźne materiały wideo, które mają wyłudzać pieniądze, jak choćby materiał wideo pt.: „Samotna mama z Warszawy została milionerką dzięki aplikacji blogera Mr Beast”.  Film podszywa się pod materiały tworzone przez TVP, a Marek Czyż ma w nim zachęcać do pobrania aplikacji hazardowej. W materiale pojawia się „zwyciężczyni” oraz wspomniany influencer, a dla uwiarygodnienia rzekomych przychodów także wizerunek PKO BP i jego aplikacji bankowej. Film kończy się zachętą do klikania w osadzony w nim link i „wejścia do gry”. Oczywiście jest to fałszywy materiał, ale oszustwa tego typu są coraz częstsze.

Sztuczna inteligencja i deepfake – czyli jaką „prawdę” widzimy?

Technologia deepfake wykorzystuje zaawansowane modele uczenia maszynowego do analizy ogromnych ilości danych wizualnych i dźwiękowych. Dzięki temu możliwe jest stworzenie materiałów, które realistycznie imitują wizerunek i głos konkretnej osoby. Przykładowo, zaledwie kilkuminutowy materiał wideo wystarczy, aby stworzyć „klona” czyjegoś wizerunku, który może mówić lub wykonywać dowolne czynności. Wideo deepfake często wykorzystują technikę zamiany twarzy (ang. face swapping), która pozwala „nałożyć” twarz jednej osoby na ciało innej. Z kolei klonowanie głosu umożliwia generowanie dźwięków i wypowiedzi brzmiących niemal identycznie jak oryginalne, co jest możliwe dzięki zaawansowanej analizie próbek dźwięku.

Niezwykle niepokojącym aspektem jest fakt, że narzędzia do tworzenia deepfake'ów stają się coraz bardziej powszechne i łatwo dostępne. Istnieją aplikacje i platformy, które umożliwiają tworzenie takich materiałów bez konieczności posiadania zaawansowanej wiedzy technicznej. Przestępcy mogą w ciągu kilku minut stworzyć realistyczne nagranie wideo, które oszuka zarówno ludzi, jak i tradycyjne systemy weryfikacji.

Dlaczego fałszywy przekaz jest skuteczny?

Twórcy dezinformacji poszli tropem, że najbardziej podobają się nam przecież piosenki, które znamy. Dlatego cyberprzestępcy często wykorzystują autorytet znanych osób publicznych, celebrytów lub marek, aby budować wiarygodność swoich oszustw. W kampaniach phishingowych oszuści podszywają się pod znane firmy, takie jak banki, serwisy streamingowe czy nawet media, jak TVP. W ten sposób zwiększają szansę na to, że ofiary uwierzą w autentyczność wiadomości. To już buduje skuteczność.

Łatwiej też manipuluje się odbiorcami, kiedy w grę wchodzi wzbudzanie emocji i snucie wiarygodnych historii.  Ludzie są bardziej podatni na manipulację, gdy komunikaty są zaprojektowane tak, aby wzbudzać silne emocje – strach, współczucie lub chęć pomocy. Oszustwa takie jak „wirtualne porwania” bazują na strachu rodziców, którym przedstawia się zmanipulowane nagranie ukazujące ich dziecko w niebezpieczeństwie. Tego typu sytuacje są możliwe dzięki zastosowaniu technologii klonowania głosu oraz realistycznych narracji. Fałszywe przekazy często wykorzystują tzw. efekt halo – ludzie są bardziej skłonni uwierzyć w informacje, jeśli są one związane z autorytetem. Może to być zarówno znana osoba, jak i instytucja lub marka, której ufają.

Dezinformacja za pomocą AI – firmy pod ostrzałem

Korzystanie przez cyberprzestępców z nowoczesnych rozwiązań do dezinformacji czy manipulacji uderza zarówno w duże firmy jak i drobnych przedsiębiorców. Wyobraźmy sobie choćby wykorzystanie AI przy zaawansowanych metodach phishingowych. Podszywanie się pod zarząd firmy, w postaci generowania fałszywych nagrań wideo lub rozmów telefonicznych, które pochodzą od kierownictwa firmy, jest coraz częściej stosowane w celu wyłudzenia pieniędzy lub dostępu do poufnych informacji. Przestępcy potrafią przekonać pracowników, że np. otrzymali pilne polecenie wykonania przelewu, co już wielokrotnie się powiodło. Deepfake to też potencjalne ataki na klientów i partnerów biznesowych. Fałszywe wideo lub kampanie phishingowe mogą być skierowane do klientów firmy, co niszczy jej reputację i powoduje straty finansowe.

Czujność odbiorców wiadomości może uśpić znana nazwa nadawcy, a także fakt, że takie maile wysyłane są na skrzynki firmowe ofiar. Zebranie takich danych nie jest jednak dla cyberprzestępców trudnością. Domenę firmowej poczty i skład zarządu można znaleźć praktycznie na każdej firmowej stronie internetowej. Aby odnaleźć imienne adresy służbowe poszczególnych osób, krążące w sieci, wystarczy posłużyć się wyszukiwarką.

– Biorąc pod uwagę popularne schematy adresów email (np. imię.nazwisko), stosowane przez bardzo wiele firm, listę adresową można zbudować także w oparciu np. o listę obecnych pracowników dostępną w serwisie LinkedIn. Jeśli pracownicy nie korzystają z wieloskładnikowego uwierzytelniania, a ich hasła firmowe nie są zbyt skomplikowane, to istnieje też ryzyko, że konto któregoś z nich zostało przejęte i atakujący wyłuskał interesujące go nazwiska i adresy mailowe z historii konwersacji – wyjaśnia Kamil Sadkowski, analityk laboratorium antywirusowego ESET.

Dlaczego fałszywe przekazy są coraz bardziej wiarygodne?

Kluczowym pytaniem wydaje się być nie to, dlaczego ulegamy dezinformacji, ale dlaczego jest ona tak skuteczna. Niewątpliwie postęp w dziedzinie sztucznej inteligencji sprawia, że materiały generowane przez AI są coraz trudniejsze do odróżnienia od autentycznych. Deepfake potrafi odwzorować mimikę, ton głosu, a nawet kontekstowe wypowiedzi, które pasują do danego materiału.

Na rynku widać też rozwój narzędzi AI do tworzenia tego typu treści. Algorytmy AI, takie jak generatory tekstu, mogą tworzyć przekonujące narracje i konteksty, które uwiarygodniają fałszywe treści. To sprawia, że nawet wysoce sceptyczni użytkownicy mogą zostać wprowadzeni w błąd. Natomiast media społecznościowe umożliwiają rozprzestrzenianie treści w ciągu kilku minut na całym świecie. Fałszywe informacje często zyskują popularność, zanim zostaną zweryfikowane.

- Nie powinniśmy ulegać złudnemu poczuciu bezpieczeństwa. Rozwój metod cyberprzestępców biegnie równolegle do powstawania nowych metod zabezpieczających. Dlatego najsilniejsza ochrona polega na wykorzystaniu kombinacji kilku zabezpieczeń, tj. uwierzytelnianie wieloskładnikowe i sprawdzone oprogramowanie zabezpieczające z funkcjonalnościami jak całodobowa ochrona przed zagrożeniami z sieci, zabezpieczenie urządzeń mobilnych, menadżer haseł czy szyfrowanie danych – podsumowuje Kamil Sadkowski, analityk laboratorium antywirusowego ESET.

Dołącz do dyskusji: Dezinformacja – czy jesteśmy w stanie odróżnić ją od informacji?

0 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiekz postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl