7-10 minut

Deepfakes – realne zagrożenie dla cyberbezpieczeństwa

Wygenerowane przez sieci neuronowe sztuczne wizerunki ludzi nie są nowością, jednak coraz doskonalsze algorytmy sprawiają, że „podróbkę” trudno dziś odróżnić od prawdziwego człowieka. A to sprawia, że wyposażeni w stosunkowo proste narzędzia cyberprzestępcy mogą z powodzeniem przeprowadzić atak na firmę i wykraść dane, a nawet pieniądze.

CZEGO DOWIESZ SIĘ Z TEGO MATERIAŁU:
  1. JAK POWSTAJĄ DEEPFAKES?
  2. JAK MOŻE WYGLĄDAĆ SCENARIUSZ ATAKU Z WYKORZYSTANIEM DEEPFAKES?
  3. GDZIE ZGŁASZAĆ DZIAŁANIA WYKORZYSTUJĄCE DEEPFAKES?
  4. CZY ISTNIEJĄ SPOSOBY OBNIŻENIA RYZYKA ATAKU Z UŻYCIEM WIZERUNKU WYGENEROWANEGO PRZEZ AI?

Wyobraźmy sobie pracownika działu księgowości firmy, który zostaje zaproszony na spotkanie wideo z dyrektorem finansowym. W e-mailu z zaproszeniem mowa jest również o planowanych transakcjach finansowych – list wygląda na prymitywną próbę phishingu. Ale w spotkaniu bierze udział jeszcze kilku innych pracowników – wszyscy się znają z widzenia. Dyrektor podczas spotkania nakazuje pracownikowi wykonanie przelewów na wskazane przez niego konta. Poleceń szefa raczej nie warto kwestionować – przelewy zostają wykonane. Później okazuje się, że wizerunek dyrektora finansowego został wygenerowany przez hakerów w celu wyłudzenia pieniędzy.

Scenariusz równie prawdopodobny, co „Mission Impossible”? Niestety to nie fikcja. Właśnie to zdarzyło się pracownikowi firmy Arup Group w Hongkongu[1], który połączył się ze swoim CFO w biurze w Londynie. A przynajmniej sądził, że to jego dyrektor finansowy, bowiem hakerzy wykorzystali zapisy z połączeń w WhatsApp oraz komunikatorów używanych do połączeń służbowych i zrobili wirtualną kopię kilku pracowników biura. Efekt? Łącznie 15 przelewów na sumę przekraczającą 25 mln dolarów. O tym, że firma padła ofiarą „metody na prezesa”, pracownik dowiedział się, gdy o dziwne transakcje zapytał go jego bezpośredni przełożony.

Co trzecia firma zaatakowana

Z deepfakes większość z nas ma do czynienia codziennie przeglądając chociażby strony kilku najpopularniejszych serwisów społecznościowych. Najczęściej są one dość prymitywne i dotyczą kryptowalut, podejrzanych funduszy inwestycyjnych czy pseudoleków.

„Podrobieni” zostali m.in. prezydenci Obama i Biden i miliarderzy Musk i Zuckerberg. W Polsce najczęściej zobaczyć można kopie prezydenta Andrzeja Dudy, byłego prezesa Orlenu Daniela Obajtka, prezesa InPost Rafała Brzoski, piłkarza Roberta Lewandowskiego czy wreszcie minister zdrowia Izabeli Leszczyny. Wszyscy oni (a raczej ich deepfakes) namawiają do podejrzanych inwestycji.

Wzrostowy trend wykorzystania deepfakes do ataków został już odnotowany w badaniach rynkowych. Według raportu „State of Information Security” ISMS.online ponad jedna trzecia firm w USA została zaatakowana przy użyciu deepfakes w ciągu ostatnich 12 miesięcy[2]. Czyni to z deepfakes drugie pod względem częstości stosowania narzędzie wykorzystywane podczas prób ataków.

Dla ekspertów National Association of State Chief Information Officers zajmujących się IT w organach administracji rządowej i lokalnej, deepfakes i związana z nimi konieczność przeprowadzenia dodatkowych szkoleń personelu, stały się w 2024 roku problemem numer jeden[3]. Również w Polsce zjawisko wykorzystywania deepfakes do ataków i wyłudzeń rośnie – o czym ostrzega NASK[4].

Znacznie gorzej w tym kontekście wygląda przygotowanie do odpierania takich ataków. Wg. danych KPMG ok. 29 proc. firm podjęło działania w związku z zagrożeniem deepfakes. Na etapie planowania jest 25 proc. firm, a aż 46 proc. nie zrobiło w tej sprawie nic[5].

Robota artysty

Deepfake w rozumieniu technologii wcale nie jest pomysłem nowym. Pierwszą prezentację oprogramowania tego rodzaju przeprowadziła firma Adobe pod koniec 2016 roku – #VoCo służył do manipulacji plikami audio zawierającymi głos. Już w 2018 roku pojawił się film ze zmanipulowaną wypowiedzią Baracka Obamy. A w 2019 roku nastąpił prawdopodobnie pierwszy atak z wykorzystaniem generatywnej sztucznej inteligencji i deepfake – hakerzy użyli podrobionego głosu CEO firmy, aby przekonać pracownika do przelania ok. 243 tys. dolarów.

Słowo deepfake jest złożeniem „deep learning” – uczenie głębokie oraz „fake” – podróbki. I w zasadzie najkrócej oddaje to mechanizm tworzenia ultrarealistycznych obrazów, dźwięków i filmów przy użyciu zaawansowanych sieci neuronowych. W tym przypadku wykorzystywany jest model sieci określanej jako autoencoder, pozwalający – w uproszczeniu – przetworzyć wizerunek twarzy nadając jej jednocześnie pewne cechy (np. ruch ust) twarzy innej osoby. Aby efekt był przekonujący, stosowane są generatywne sieci współzawodniczące (GAN –Generative Adversarial Network). Jedna sieć neuronowa jest twórcą deepfake’a („artystą”), druga ma wykryć fałszerstwo (jest „krytykiem”). Oceniając kolejne próby, obie sieci – zarówno „artysta”, jak i „krytyk”, stają się coraz doskonalsze. Efektem jest podróbka prawie nie do odróżnienia od rzeczywistego wizerunku danej osoby[6].

Dlaczego warto wiedzieć, jak tworzone są deepfakes? Bo warunkiem uzyskania rezultatów wysokiej jakości jest wykorzystanie przez atakujących bardzo dużego zbioru danych wejściowych – jeśli mówimy o zapisie wideo, potrzebne są zapisy filmowe osoby z różnych ujęć i twarzy pod różnymi kątami. To samo dotyczy próbek dźwięku. Wbrew pozorom zapisy te wcale nie są tak trudno dostępne – pełno ich w mediach społecznościowych na kontach osób, które hakerzy mogą chcieć zaatakować.

W przypadku osób występujących publicznie – na konferencjach, czy w telewizji – problem zdobycia odpowiednich danych wejściowych praktycznie nie istnieje. To m.in. dlatego przestępcy wykorzystują w swoich akcjach celebrytów czy polityków – nie tylko budzą zaufanie, ale również dane potrzebne do wykreowania „kopii” są łatwo dostępne.

Kto mieczem wojuje, od miecza ginie

Wykorzystanie deepfakes nie ogranicza się zresztą tylko do podrabiania wizerunków ludzi w celu bezpośredniej kradzieży pieniędzy. Służą również dezinformacji (gdy osoba ciesząca się zaufaniem prezentuje kontrowersyjne poglądy), szantażowi (gdy prezes „przyznaje się” do malwersacji) czy kradzieży tożsamości (gdy podrobiony głos i wizerunek służą do założenia np. konta w banku).

Według szacunków KPMG dostępnych jest obecnie ok. 100 tys. modeli AI pozwalających na generowanie lepszych lub gorszych deepfakes. Jednocześnie tylko niewielka część z nich – ok. 3 tys. pozwala na wykrywanie manipulacji w materiałach audiowizualnych. Na szczęście istnieją rozwiązania komercyjne, często dostarczane przez największe firmy na rynku IT, takie jak Intel czy Microsoft, które umożliwiają identyfikowanie deepfakes. Również takie narzędzia wykorzystują algorytmy AI, które pozwalają na wykrywanie zmanipulowanych materiałów ze skutecznością przekraczającą 95 proc. – i to w czasie zaledwie kilku sekund. Dla użytkownika działają one w sposób zbliżony do doskonale znanych programów antywirusowych – mogą skanować zawartość poczty, otwierane strony WWW, ale również monitorować połączenia wideo.

Niektóre z nich analizują zawartość obrazów i wideo poszukując artefaktów pozostawionych przez autoencodery, inne dysponują bazą danych znanych deepfakes i porównują świeży materiał z tym, który już znają. Popularną metodą jest także analiza niezgodności fonemów i ruchów warg na filmie – to także jeden ze sposobów „ręcznego” wykrywania deepfakes[7].

Jednak niezależnie od zaawansowania technicznego środków obrony przed deepfakes, kluczowym elementem jest edukacja pracowników i użytkowników. W obliczu wyścigu między twórcami coraz doskonalszych podróbek i autorami oprogramowania do ich wykrywania największe znaczenie ciągle ma czujność i zdrowy rozsądek człowieka.

Zaatakowano nas. Co teraz?

Postępowanie w przypadku wykorzystania zmanipulowanego obrazu lub dźwięku będzie zależało przede wszystkim od tego, w jaki sposób i w jakim celu przestępca zamierza je wykorzystać.

Jeżeli deepfake prezentowany jest na stronach serwisu internetowego, a jego celem jest np. uwiarygodnienie działań przestępców (tak jest np. gdy wizerunek polityka, biznesmena lub celebryty jest używany do promocji kryptowalut lub innych podejrzanych inwestycji) pierwszym krokiem powinno być zawiadomienie administratorów takiej strony. Ma to szczególne znaczenie w bardzo częstej sytuacji, gdy ustalenie tożsamości sprawców jest trudne lub wręcz niemożliwe. Odpowiedzialność osób, które nie są autorami deepfake, ale spowodowały umieszczenie takiego materiału w sieci jest tożsama z odpowiedzialnością autorów. Po formalnym zawiadomieniu o rozpowszechnianiu zmanipulowanych materiałów, osoby takie nie mogą zasłaniać się niewiedzą – biorą za takie materiały odpowiedzialność lub muszą uniemożliwić do nich dostęp.

Incydenty tego rodzaju warto również zgłaszać do zespołu CERT Polska. Próby oszustwa przez zmanipulowane serwisy wyłudzające pieniądze można wpisać na listę ostrzeżeń za pośrednictwem strony incydent.cert.pl. Jeżeli do tego przestępcy wykorzystują technologie deepfakes, próbę ataku można zgłosić pod adresem deepfake@nask.pl, gdzie sprawą zajmą się specjaliści z Pionu Sztucznej Inteligencji NASK.

CERT nie ma jednak uprawnień organów ścigania, dlatego w przypadku kradzieży tożsamości należy jak najszybciej powiadomić policję. Warto zadbać o dowody – zrzuty ekranu, filmy, zapis dźwięku. Co istotne, ściganie przestępstwa polegającego na podszywaniu się pod inną osobę w internecie i kradzież tożsamości następuje na wniosek pokrzywdzonego – ofiara musi to zrobić osobiście. Zasadne może być również złożenie skargi do Urzędu Ochrony Danych Osobowych z żądaniem np. usunięcia naruszenia i przywrócenia stanu zgodnego z prawem.

W wielu przypadkach wykorzystanie deepfakes osoby publicznej lub zajmującej wysokie stanowiska w firmie lub urzędzie prowadzi jednak do bardzo dużych szkód – zarówno finansowych, jak i wizerunkowych. Doświadczenia z takich naruszeń w Polsce dowodzą, że poszkodowani szukają skutecznej pomocy prawnej w wyspecjalizowanych kancelariach.

Podsumowanie

Co powinna zrobić firma, która chce zabezpieczyć się przed atakami wykorzystującymi podróbki tworzone przez AI?

  • Wdrożyć zasady bezpieczeństwa i cyberhigieny w całej organizacji. Ma to szczególne znaczenie w czasach pracy zdalnej i hybrydowej.
  • Tam, gdzie jest to uzasadnione i możliwe, chronić prywatność kluczowych dla organizacji osób. Utrudni to wykorzystanie informacji osobistych, w tym zapisu głosu i nagrań twarzy, w celu stworzenia deepfakes.
  • Odbywać spotkania wideo tylko w zamkniętym gronie. Nie dopuszczać do udziału w takich naradach osób trzecich.
  • Wzmocnić i usztywnić procedury weryfikacji tożsamości. Minimum zabezpieczeń to solidna weryfikacja dwustopniowa oraz wdrożenie modeli zerowego zaufania. Niektóre instytucje (m.in. z sektora finansowego) posługują się również biometrią behawioralną – systemem analizującym na bieżąco zachowanie człowieka i poszukujące odmienności lub nietypowych działań.
  • Zidentyfikować główne czynniki ryzyka i aktualne zagrożenia dla bezpieczeństwa. Wymaga to śledzenia technik manipulacji, jakimi posługują się przestępcy.
  • Wprowadzić dodatkowe procedury kontroli dostępu do szczególnie cennych danych i wykonywania innych niż rutynowe operacji finansowych.
  • Zainwestować w rozwiązania technologiczne, również te oparte na AI, w celu szybszego identyfikowania i odpierania ataków – np. zainstalowanie oprogramowania wykrywającego zmanipulowane materiały w poczcie przychodzącej lub w komunikatorach.
  • Szkolić pracowników, partnerów, jak również klientów – tam, gdzie jest to niezbędne. To ludzie są celem socjotechnicznych manipulacji w materiałach deepfake. Warto również przeprowadzać testy pozwalające ocenić, czy wiedza z zakresu cyberbezpieczeństwa jest stosowana w praktyce.
  • Przygotować obsługę prawną na wypadek naruszeń tożsamości pracowników.

[1] https://edition.cnn.com/2024/05/16/tech/arup-deepfake-scam-loss-hong-kong-intl-hnk/index.html

[2] https://www.isms.online/state-of-infosec-24/

[3] https://www.govtech.com/security/cybersecurity-deepfakes-and-the-human-risk-of-ai-fraud

[4] https://www.nask.pl/pl/aktualnosci/5403,NASK-ostrzega-rosnie-liczba-oszustw-deepfake-wykorzystujacych-wizerunki-znanych-.html

[5] https://kpmg.com/kpmg-us/content/dam/kpmg/pdf/2023/deepfakes-real-threat.pdf

[6] https://owasp.org/www-chapter-dorset/assets/presentations/2022-10/OWASP_Deepfakes-A_Growing_Cybersecurity_Concern.pdf

[7] https://www.unite.ai/best-deepfake-detector-tools-and-techniques/

Security Operations Center

Ten artykuł dotyczy produktu

Security Operations Center

Przejdź do produktu

Data publikacji: 01.08.2024

Chcesz dostawać informacje o nowych wpisach?

Chcesz dostawać informacje o nowych wpisach?

Zostaw swój adres e-mail