Cyberzagrożenia, Główna, Nowe technologie

Czy można jeszcze wierzyć własnym oczom? Deepfake video – nowy środek manipulacji

Czas czytania: 3 min

Czy można i czy warto jeszcze wierzyć własnym oczom? Przeczytaj o Deepfake video – nowym środku manipulacji.

Do niedawna fałsz kojarzył się głównie z fake newsami lub manipulacjami fotograficznymi. Czasy się zmieniają a wraz z nimi sposoby na kreowanie nieistniejącej rzeczywistości. Coraz więcej mówi się o technice manipulacji związanej z materiałami video, którą wykorzystuje się jako narzędzie do dezinformacji i cyber ataków. Mówimy oczywiście o zjawisku deepfake.

Co to jest deepfake?

Internet usłyszał o deepfake’u w 2018 roku, a samo pojęcie wzięło się od nicku użytkownika Reddita, który to zaczął publikować spreparowane filmy pornograficzne przedstawiające wizerunki aktorek niemających nic wspólnego z branżą filmów dla dorosłych. W publikacjach „występowały” m.in.: Emma Watson, Scarlett Johansson, czy Taylor Swift. Deepfake’i tworzy się przez zestawienie obrazów i nagrań dźwiękowych przy użyciu sztucznej inteligencji, co umożliwia stworzenie spreparowanego materiału.

Początkowo fałszywe nagrania nie były tak dobrej jakości jak obecnie. Można było zauważyć, że postaci przedstawione na filmach nie mrugają lub nienaturalnie poruszają twarzą. Technologia jednak szybko postępuje a kolejne deepfake’i są coraz trudniejsze do wykrycia. Co ciekawe, z biegiem czasu mogą stać się nawet całkowicie nie do wychwycenia gołym okiem.

Czym grozi fałszowanie rzeczywistości?

Deepfake’i w przyszłości będą mogły mieć wiele pozytywnych zastosowań. Już na obecnym etapie rozwoju używa się ich jako ciekawe narzędzie marketingowe. Oprócz tego mogą pełnić rolę rozrywkową czy edukacyjną, natomiast badania i analizy głównie skupiają się na zagrożeniach, które może nieść owa technologia.

Bardzo dobrym sposobem na uwiarygodnienie „fejka” jest osobiste przedstawienie go przez osoby znane czy wpływowe. Pierwsze zatem, co nasuwa się na myśl, kiedy mowa o deepfake’u, to możliwość dyskredytacji, czy oczernienia danej postaci np. polityka w trakcie kampanii wyborczej. W stanach Teksas i Kalifornia już w 2019 roku ustanowiono zakaz publikacji sfałszowanych materiałów filmowych w ramach kampanii. Wszystko po to by zapewnić, że wybory nie będą w ten sposób zmanipulowane. Podobnie w Chinach, gdzie od 2020 roku istnieją przepisy zapobiegające publikacji nieoznaczonych deepfake’ów. Pomimo tego w większości przypadków używanie ich nie jest uregulowane prawnie, ze względu na bardzo szybki rozwój tej technologii.

Sztuczna inteligencja, deepfake i ataki

Fałszywe audio/ wideo tworzone są z wykorzystaniem sztucznej inteligencji i jest to niestety pomoc dla cyberprzestępców. Wspomniana technika może z powodzeniem służyć jako rozszerzenie dla ataków ransomware’owych czy phishingowych. Sfałszowane materiały filmowe znacząco ułatwią podszywanie się pod osobę lub firmę celem wyłudzenia danych wrażliwych czy zainfekowania złośliwym oprogramowaniem. Podobnie z atakami ransomware’owymi. Znane są ataki sextortion, charakteryzujące się otrzymywaniem wiadomości e-mail, w których oprawca grozi upublicznieniem kompromitujących nagrań odbiorcy, jeśli ten nie uiści zapłaty. Zazwyczaj atak taki wystarczy zignorować. Co, jeśli jednak atakujący będzie faktycznie w posiadaniu kompromitującego filmu? By taki mógł powstać, wystarczy mieć dostęp do zdjęć ofiary, co w dzisiejszych czasach wcale nie jest trudne. Resztę zrobi AI. Przed deepfake ransomware nie sposób się obronić; każda osoba, której zdjęcia znajdują się w sieci, jest narażona na to, że stanie się jego ofiarą.

Na marginesie, ciekawym przykładem jest również metoda deepfake voice, która opiera się na fabrykowaniu samego głosu, a nie fałszywego wideo. Już na chwilę obecną telefoniczne wyłudzenia są zmorą, a powyższa metoda tylko otwiera kolejne drzwi dla cyberprzestępców. Słysząc w słuchawce znajomy głos, nasza czujność może zostać skutecznie uśpiona. Skojarzenia z metodą „na wnuczka” są jak najbardziej słuszne, jednak w tym przypadku ofiarami mogą paść nie tylko osoby prywatne, ale również firmy. Dobrym przykładem jest tutaj historia szefa pewnej brytyjskiej spółki energetycznej, który to w 2019 roku odebrał telefon od rzekomego dyrektora generalnego firmy. Za jego poleceniem wpłacił prawie 220 tysięcy euro na rzecz oszustów.

Jak odróżnić deepfake od rzeczywistości?

Generalnie większość z nas ma tendencję do wierzenia w to, co widzi na własne oczy. Ze względu na to, wychwycenie deepfake’a może okazać się niełatwe.

W tym przypadku diabeł naprawdę tkwi w szczegółach. Czynnikami, które powinny zwrócić naszą uwagę przy analizowaniu materiału, są na pewno: nieproporcjonalna jakość obrazu między twarzami na nagraniu a otoczeniem, podobnie różnice w oświetleniu, czy niedopasowanie dźwięku do ruchu ust. Algorytmy często miewają kłopot z wiarygodnym odwzorowaniem okolic ust i oczu. Mogą to być również inne dziwne detale na twarzach występujących osób. Z biegiem czasu coraz lepsza technika preparowania materiałów video sprawi, że tego rodzaju filmy będą wiarygodniejsze i cięższe do wychwycenia, a wskazane metody rozróżnienia deepfake’a od rzeczywistości staną się nieskuteczne. Tylko czas pokaże, w jaki sposób świat będzie radził sobie z tą nową i zaskakującą technologią.

Autor: Marianna Pacut
Grafika: freepik
Strona: netcomplex.pl




Dodaj komentarz