Deepfake to już nie tylko eksperyment. Cyberprzestępcy masowo wykorzystują AI

19 godziny temu 5
Reklama 3 tysiące złotych na miesiąc.

Czasy, gdy deepfake’i były ciekawostką technologiczną, definitywnie minęły. Cyberprzestępcy coraz częściej sięgają po narzędzia sztucznej inteligencji, by przeprowadzać oszustwa na niespotykaną dotąd skalę. Co gorsza, nie potrzebują do tego ani specjalistycznej wiedzy, ani dużych budżetów. Wystarczy smartfon i miesięczna subskrypcja za kilkadziesiąt złotych.

Od eksperymentu do masowej broni

Historia deepfake’ów sięga 2017 roku, kiedy to społeczność technologiczna eksperymentowała z narzędziami takimi jak DeepFaceLab. Rok później technologia stała się dostępna dla szerszej publiczności, a przestępcy szybko dostrzegli jej potencjał. Pierwszy udokumentowany przypadek oszustwa z wykorzystaniem deepfake’a audio miał miejsce w 2019 roku – brytyjska firma energetyczna straciła wtedy 243 tysiące dolarów, gdy oszuści użyli AI do naśladowania głosu niemieckiego prezesa firmy-matki, włącznie z jego lekkim niemieckim akcentem.

Dziś sytuacja wygląda dramatycznie inaczej. “Media generowane przez AI to już nie przyszłe zagrożenie, ale realne zagrożenie biznesowe” – ostrzega David Sancho, główny badacz zagrożeń w Trend Micro. “Widzimy podszywanie się pod kadrę zarządzającą, naruszanie procesów rekrutacyjnych i omijanie zabezpieczeń finansowych z niepokojącą łatwością.”

Gdy prezes “dzwoni” z poleceniem przelewu

Nowy raport firmy Trend Micro ujawnia niepokojącą prawdę: deepfake’i przestały być domeną ekspertów technicznych. Dzisiaj każdy może wygenerować przekonujący fałszywy film lub nagranie audio za kilkadziesiąt złotych miesięcznie.

Przestępcy dostosowują swoje metody do celu ataku. W przypadku korporacji przygotowują się znacznie bardziej szczegółowo – przeprowadzają rozpoznanie, analizują struktury organizacyjne i planują ataki na konkretnych pracowników. Przy atakach na zwykłych użytkowników działają masowo, używając ogólnych szablonów, które można łatwo dostosować do większej liczby ofiar.

Najczęstsze scenariusze ataków na firmy:

  • Fałszywe polecenia finansowe: oszuści podszywają się pod dyrektorów podczas wideokonferencji w czasie rzeczywistym.
  • Manipulacje rekrutacyjne: przestępcy używają AI, by przejść przez proces rekrutacji i uzyskać dostęp do wewnętrznych systemów.
  • Omijanie weryfikacji KYC: instytucje finansowe odnotowują wzrost prób obejścia procedur “Know Your Customer” przy użyciu sfałszowanych dokumentów.

Narzędzia dostępne w każdym telefonie

Najbardziej niepokojący jest fakt, że przestępcy korzystają z tych samych narzędzi, które mają w swoich smartfonach miliony użytkowników. To już nie są specjalistyczne aplikacje z dark webu – to popularne platformy reklamowane influencerom i twórcom treści.

Deepfake audio – rynek niemal dojrzały:

  • ElevenLabs: klonowanie głosu z obsługą wielu języków, plany od 20 zł miesięcznie.
  • Speechify: tworzenie audiobooków we własnym głosie za 40 zł miesięcznie.
  • Play.ht: plan “Hacker” (tak naprawdę się nazywa) za 20 zł miesięcznie.
  • Resemble AI: oferuje neural watermarking zgodny ze standardem C2PA jako zabezpieczenie.

Wystarczy kilka sekund nagrania źródłowego, by stworzyć przekonującą kopię czyjegoś głosu. Najlepsze usługi kosztują nawet 5000 zł miesięcznie, ale przyzwoitą jakość można uzyskać już za 20 zł.

Deepfake wideo – jeszcze łatwiejsze niż audio:

  • Argil AI: generowanie filmów z tekstu z pełną kontrolą nad mową ciała za 160 zł miesięcznie.
  • Reface.ai: aplikacja mobilna do zamiany twarzy w GIF-ach i krótkich filmach.
  • Avatarify: zmiana twarzy w czasie rzeczywistym podczas rozmów wideo (za darmo!).
  • Synthesia i HeyGen: tworzenie interaktywnych klonów AI, które mogą uczestniczyć w wideokonferencjach.

Szczególnie niebezpieczne są platformy umożliwiające manipulację w czasie rzeczywistym. Oszust może dosłownie podszywać się pod kogoś podczas ważnej wideokonferencji, a pozostali uczestnicy nie zorientują się, że rozmawiają z deepfake.

Ciemna strona rewolucji AI

Raport Trend Micro ujawnia także znacznie bardziej niepokojące zjawiska. Oprócz oszustw biznesowych przestępcy masowo wykorzystują AI do:

Tworzenia “deep nudes”: [latformy pozwalają “rozebrać” dowolną osobę ze zdjęcia. Niektóre umożliwiają nawet pobieranie zdjęć bezpośrednio z Instagrama. Koszt? Często za darmo lub od 40 zł miesięcznie.

Sextortion i szantażu: wystarczy jedno zdjęcie z mediów społecznościowych, by stworzyć kompromitujący materiał i szantażować ofiarę.

Oszustw randkowych: przestępcy tworzą fałszywe profile z wykorzystaniem AI-generowanych zdjęć i prowadzą długotrwałe oszustwa emocjonalne.

Tworzenia fałszywych materiałów z udziałem dzieci: to może być najbardziej niepokojące – AI pozwala generować szkodliwe treści z udziałem nieletnich, co utrudnia pracę organom ścigania, które tracą czas na poszukiwanie ofiar, które nie istnieją.

Podziemie dzieli się wiedzą jak nigdy wcześniej

Szczególnie niepokojące są obserwacje z przestępczego podziemia internetowego. W przeciwieństwie do przeszłości, gdy używano specjalistycznych narzędzi, dziś cyberprzestępcy dzielą się poradnikami wykorzystania popularnych, legalnych aplikacji.

Przykłady z ostatnich miesięcy:

  • Listopad 2024: szczegółowy przewodnik tworzenia deepfake’a za pomocą darmowego Deep-Live-Cam z integracją z OBS Studio.
  • Grudzień 2024: kompletny zestaw do omijania weryfikacji KYC zawierający VcamPro, fałszywą aplikację kamery iPhone’a oraz prywatne narzędzie deepfake wymagające karty RTX 2070 lub lepszej.
  • Styczeń 2025: przestępca oferujący usługi deepfake specjalnie do pokonywania KYC, używający DeepFaceLive, DeepFaceLab i AI Voice Changer.

Najczęstszym zastosowaniem jest omijanie weryfikacji tożsamości na giełdach kryptowalut, co pozwala przestępcom na anonimowe pranie pieniędzy.

Policja łapie, ale to kropla w morzu

Ostatnie miesiące przyniosły kilka spektakularnych aresztowań. W październiku 2024 roku hongkońska policja aresztowała 27 osób specjalizujących się w oszustwach randkowych z wykorzystaniem deepfake. Gang działał od października 2023 roku i oszukał ofiary na 46 milionów dolarów. Na początku 2025 roku hiszpańska policja rozbiła gang, który przy użyciu deepfake’ów hiszpańskich celebrytów oszukał inwestorów na 19 milionów euro.

Ale to wciąż za mało. Jak zauważa raport, przestępcy szybko się uczą i dzielą wiedzą, podczas gdy większość firm nawet nie zdaje sobie sprawy z istnienia problemu.

Technologia, która usuwa własne zabezpieczenia

Paradoksalnie, wiele platform świadomie usuwa mechanizmy ochronne. Choć niektóre narzędzia dodają cyfrowe znaki wodne do generowanych treści, często są one automatycznie usuwane w płatnych planach. Użytkownik płaci więc nie tylko za lepszą jakość, ale także za możliwość tworzenia treści nie do odróżnienia od prawdziwych.

Niektóre platformy próbują wprowadzać zabezpieczenia – np. Resemble AI dodaje neural watermarking zgodny ze standardem Coalition for Content Provenance and Authenticity (C2PA), co pozwala na śledzenie pochodzenia treści. Ale to wciąż mniejszość.

Czy można się bronić?

Trend Micro zaleca firmom podjęcie natychmiastowych działań:

  • Edukacja pracowników o zagrożeniach związanych z social engineeringiem i deepfake.
  • Przegląd procedur uwierzytelniania – wprowadzenie dodatkowych weryfikacji dla ważnych decyzji finansowych.
  • Wdrożenie technologii wykrywania treści syntetycznych.
  • Ustalenie protokołów weryfikacji tożsamości podczas ważnych rozmów biznesowych.

Firma oferuje technologię wykrywania deepfake w ramach platformy Trend Vision One AI Security, która analizuje nie tylko obraz i dźwięk, ale także zachowania użytkowników podczas rozmów wideo. Dostępna jest także darmowa wersja dla konsumentów – Trend Micro Deepfake Inspector.

Świat bez zaufania

Eksperci przewidują fundamentalną zmianę w sposobie konsumowania informacji. Zamiast obecnego modelu “zaufaj, ale zweryfikuj”, czeka nas era “zero trust” – zakładania, że każda treść może być fałszywa, dopóki nie zostanie potwierdzona.

W świecie, gdzie zobaczyć już nie oznacza uwierzyć, zaufanie cyfrowe musi być odbudowane od podstaw” – podsumowuje David Sancho. Ale czy nie jest już za późno? Gdy każdy może stworzyć przekonujący deepfake za kilkadziesiąt złotych, pytanie brzmi nie “czy”, ale “kiedy” staniemy się ofiarami.

Czytaj też: Dania kontra deepfake. Władze wprowadzą prawa autorskie do własnej twarzy

Ironią jest, że technologia stworzona po to, by ułatwić nam życie – od tworzenia treści po automatyzację procesów biznesowych – może ostatecznie zniszczyć podstawę naszej cywilizacji: możliwość odróżnienia prawdy od kłamstwa. Czy jesteśmy na to gotowi? Wszystko wskazuje na to, że nie mamy wyboru.

Przeczytaj źródło